viernes, 2 de febrero de 2024

(941) - Cómo calcular rápidamente la raíz cuadrada de cualquier número

Supongamos que tenemos un número $a$ positivo, $a>0$, del que queremos calcular su raíz cuadrada, $\sqrt{a\;}$. De alguna forma nos damos cuenta que existe otro número $n$ tal que $a\approx n^2$, es decir, $n\approx \sqrt{a\;}$.

Al aproximar $\sqrt{a\;}$ por $n$, estaremos cometiendo un error $\varepsilon$, que es de la forma $\varepsilon=\sqrt{a\;}-n$. Escrito de otra forma, $\sqrt{a\;}=n+\varepsilon$, por lo que $a=(n+\varepsilon)^2$. Si pudiésemos calcular de forma exacta el error $\varepsilon$, por ejemplo a través de una fórmula, podríamos calcular la raíz cuadrada de este forma. Si desarrollamos la última expresión, se llega a $\varepsilon^2 + 2n\,\varepsilon + (n^2-a)=0$, que es una ecuación polinómica de segundo grado en $\varepsilon$, por lo que: $$ \varepsilon = \frac{-2n\pm\sqrt{(2n)^2-4(n^2-a)\;}}{2} = -n\pm\sqrt{a\;}$$ O sea, que para no tener que calcular una raíz cuadrada, hay que calcular una raíz cuadrada... Hemos llegado otra vez al problema que queríamos evitar. Sin embargo, esto tiene fácil solución: Si nuestra aproximación $n$ es suficientemente buena a la raíz cuadrada $\sqrt{a\;}$, esto implicará que el error será pequeño, $\varepsilon\ll 1$, y en especial su cuadrado más, $\varepsilon^2\approx0$. Ahora sustituyendo esta aproximación para el error en la fórmula anterior: $$ 2n\,\varepsilon + (n^2-a) \approx 0 \implies \varepsilon \approx \frac{a-n^2}{2n} $$ Entonces la fórmula que buscamos es $$ \boxed{ \sqrt{a\;} \approx n + \frac{a-n^2}{2n} } $$ Por ejemplo si queremos calcular la raíz de $a=15$, tomamos $n=4$, ya que $4^2=16\approx 15$ y al usar la fórmula anterior, $$ \boldsymbol{3\mathrm{'}87}29833\dots = \sqrt{15\;} \approx 4 + \frac{15-4^2}{2\cdot 4} = 3\frac{7}{8} = \boldsymbol{3\mathrm{'}87}5 $$ Lo bueno de esta fórmula es que se puede usar de forma recursiva para ir encontrando sucesivas aproximaciones que tienden a la raíz: Ahora $n=3\mathrm{'}875$ y $n^2=15\mathrm{'}015625$ $$ \boldsymbol{3\mathrm{'}872983}3\dots = \sqrt{15\;} \approx 4 + \frac{15-3\mathrm{'}875^2}{2\cdot 3\mathrm{'}875} = 3\frac{433}{496} = \boldsymbol{3\mathrm{'}872983}8\dots $$
Otro ejemplo si queremos calcular la raíz de $a=2$, tomamos $n=1$, ya que $1^2=1\approx 2$ y al usar la fórmula anterior, $$ \boldsymbol{1}\mathrm{'}4142135\dots = \sqrt{2\;} \approx 1 + \frac{2-1^2}{2\cdot 1} = 3\frac{1}{2} = \boldsymbol{1}\mathrm{'}5 $$ Y en la siguiente iteración $n=1\mathrm{'}5$ y $n^2=2\mathrm{'}25$ $$ \boldsymbol{1\mathrm{'}41}42135\dots = \sqrt{2\;} \approx 4 + \frac{2-1\mathrm{'}5^2}{2\cdot 1\mathrm{'}5} = 1\frac{5}{12} = \boldsymbol{1\mathrm{'}41}\bar{6}\dots $$ Y en la siguiente iteración $n=1\mathrm{'}41\bar{6}$ y $n^2=2\mathrm{'}0069\bar{4}$ $$ \boldsymbol{1\mathrm{'}41421}35\dots = \sqrt{2\;} \approx 1\mathrm{'}41\bar{6} + \frac{2-1\mathrm{'}41\bar{6}^2}{2\cdot 1\mathrm{'}41\bar{6}} = 1\frac{169}{408} = \boldsymbol{1\mathrm{'}41421}56\dots $$ En general si queremos hallarla raíz $p-$ésima de un número $a$, $\sqrt[p]{a\;}$, tal que $a\approx n^p \iff n\approx\sqrt[p]{a\;}$ se puede hallar de forma similar con: $$ \boxed{ \sqrt[p]{a\;} \approx n + \frac{a-n^p}{p n^{p-1}} } $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 22 de diciembre de 2023

(937) - Notación de Landau ampliada

Veamos algunos ejemplos de notación de las llamadas O:
  • Denotamos $f(x)\in{\scriptsize \mathcal{O}}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\lneq M g(x)$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=0$
  • Denotamos $f(x)\in\mathcal{O}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\leqslant M g(x)$ o con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\in\omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $f(x)> M g(x)$ ocon su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=\infty$.
  • Denotamos $f(x)\in\Omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\geqslant M g(x)$ ocon su definición de límites, $\displaystyle \limsup_{x\to a}\left|\frac{f(x)}{g(x)}\right|>0$, es decir, si $f(x)\not\in{\scriptsize \mathcal{O}}\big(g(x)\big)$.
  • Denotamos $f(x)\in\Omega_{+}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}>0$.
  • Denotamos $f(x)\in\Omega_{-}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}<0$.
  • Denotamos $f(x)\in\Theta\big(g(x)\big)$ cuando $x\to a$ si existe $M_1,M_2>0$ para $|x-a|<\delta$ tal que $M_1g(x)\leqslant|f(x)|\leqslant M_2g(x)$ o con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}>0 \quad \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\sim g(x)$ cuando $x\to a$ si existe $\varepsilon>0$ para $|x-a|<\delta$ tal que $\displaystyle \left|1-\frac{f(x)}{g(x)}\right|<\varepsilon$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=1$

  • También equiste la notación con virgulilla, por ejemplo $f(x)\in\tilde{\mathcal{O}}\big(g(x)\big)$, que que significa que existe $k\in\mathbb{N}$ tal que $f(x)\in\mathcal{O}\Big(g(x)\ln^k\!\big(g(x)\big)\Big)$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 8 de diciembre de 2023

    (929) - Todo es una aproximación lineal - Relatividad y polinomios de Taylor

    La gran mayoría de los problemas tanto en matemáticas como en física no son problemas lineales. Un claro ejemplo es el péndulo simple, cuya solución hace falta de funciones elípticas. Es más, el problema del péndulo doble tiene una solución analítica, pero no cerrada (es decir, la solución es diferenciable en un punto con su serie convergendiendo a ella, pero no se puede expresar como una combinación finita de otras funciones bien definidas). Sin embargo, la existencia de puntos de equilibrio, nos dice que hay soluciones constantes bajo ciertas condiciones iniciales, lo que nos permite estudiar una muy buena aproximación: como las pequeñas oscilaciones o perturbaciones en torno a un punto de equilibrio. Volviendo al ejemplo del péndulo simple: $$ \ddot{\theta}+{\omega_0}^2\sin\theta=0 \implies \theta(t)\approx\theta_\mathrm{eq}+\delta\theta(t) = \begin{cases} \displaystyle \theta_0\cos(\omega_0t)+\frac{\dot{\theta}_0}{\omega_0}\sin(\omega_0t) & \theta_\mathrm{eq}=0 \\ \displaystyle \pm\pi + (\theta_0\mp\pi)\cosh(\omega_0t)+\frac{\dot{\theta}_0}{\omega_0}\sinh(\omega_0t) & \theta_\mathrm{eq}=\pm\pi \end{cases}$$ Este tipo de aproximaciones también se pueden ver en la relación entre mecánica clásica y relatividad. Muchas de las fórmulas de mecánica clásica, por ejemplo para el momento lineal o la energía cinética son en realidad las aproximaciones de Taylor a primer orden del momento lineal relativista y de la energía relativista. $$ \vec{p} = \gamma m_0 \vec{v} \implies T_1(\vec{p},0)(\vec{v}) = \underbrace{m_0\vec{v}}_\text{Momento lineal clásico} + \underbrace{\mathcal{O}\big(v^3\big)}_\text{Correcciones relativistas del momento lineal} \\ E^2 = (pc)^2 + {\big(m_0 c^2\big)}^2 \implies T_1(E,0)\big(v^2\big) = \underbrace{m_0 c^2}_\text{Energía interna} + \underbrace{\frac{1}{2}m_0 v^2}_\text{Energía cinética clásica} + \underbrace{\mathcal{O}(v^4)}_\text{Correcciones relativistas de la energía} $$
    Otro ejemplo es el estudio de oscilaciones de un oscilador anarmónico, donde la energía potencial $U(x)$ viene dada por: $$ U(x) = \underbrace{U(x_\mathrm{eq}) + \frac{1}{2}m{\omega_0}^2(x-x_\mathrm{eq})^2}_\text{Términos armónicos} + \underbrace{\frac{1}{6}U^{(3)}(x_\mathrm{eq})\,(x-x_\mathrm{eq})^3+\frac{1}{24}U^{(4)}(x_\mathrm{eq})\,(x-x_\mathrm{eq})^4+\cdots}_\text{Términos estrictamente anarmónicos}$$ Otros ejemplos serían las leyes de Boyle-Mariotte, Charles y Gay-Lussac, o en el caso más general la ley de los gases ideales son en realidad aproximaciones asintóticas del comportamiento de un gas real.
    Muchas veces no pensamos que realmente son aproximaciones de otras fórmulas, pero las tenemos tan interiorizadas y funcionan tan bien que uno ni se lo plantea. Muchas veces en física a la hora de estudiar un suceso no nos importa su comportamiento global o en todo momento, ya que puede entrañar mucha dificultad, sino lo que hacemos es estudiar su comportamiento asintótico en puntos concretos como en el infinito o puntos de equilibrio. Con esto no obtenemos una solución exacta, sino una aproximación local a la solución que nos permite estudiar el problema en un entorno y dar sucesivas aproximaciones. Muchas veces las aproximaciones se utilizan por conveniencia, ya que unos términos dominan sobre otras al ser varios órdenes de magnitud mayores.
    Hace relativamente poco recuerdo que un profesor nos contó que realmente en física los distintos fenómenos y sucesos no son independientes ni aislados, sino que se dan muchas veces varios a la vez, pero estudiamos cada uno en una región donde predominan sobre el resto para enterder bien su comportamiento. Esto es lo que hacemos muchas veces: estudiar el comportamiento local para intentar entender mejor el general al descomponerlo.


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 24 de noviembre de 2023

    (919) - Integral logarítmica

    Introduzcamos hoy una de las funciones muy curiosas a mi parecer. $$\begin{array}{ cccc }
    \operatorname{li} : & \mathbb{R}^+ & \longrightarrow & \mathbb{R} \\[2.5ex]
    & x & \longmapsto & \displaystyle ―\hspace{-12pt}\int_0^x\! \frac{1}{\ln(t)} \mathrm{d}t \end{array}$$ La integral logarítmica queda relacionada con la integral exponencial, otra función íntimamente relacionada, cuya definición es $ \displaystyle \operatorname{Ei}(x) \overset{\mathrm{def}}{=} ―\hspace{-12pt}\int_{-\infty}^x\! \frac{e^u}{u} \;\mathrm{d}u $, y la relación se da: $$ \operatorname{li}(x) = \operatorname{Ei}\!\big(\ln(x)\big) \iff \operatorname{li}\!\big(e^x\big) = \operatorname{Ei}(x) $$ La integral logarítmica desplaza o la integral logarítmica euleriana se define como $$\begin{array}{ cccc } \operatorname{Li} : & \mathbb{R}^+ & \longrightarrow & \mathbb{R} \\[2.5ex]
    & x & \longmapsto & \displaystyle \int_2^x\! \frac{1}{\ln(t)} \mathrm{d}t \triangleq \operatorname{li}(x) -\operatorname{li}(2) \end{array}$$ Donde la diferencia entre una y otra viene dado por: $$ \operatorname{li}(x) - \operatorname{Li}(x) \triangleq\, ―\hspace{-12pt}\int_0^2 \frac{1}{\ln(t)} \mathrm{d}t = 1\mathrm{'}04516378\cdots $$ La constante de Ramanujan–Soldner, que se define tal que: $$ \mu\in\mathbb{R} / \int_0^\mu\! \frac{1}{\ln t}\;\mathrm{d}t=0 $$ Es decir, es el único cero de la integral exponencial, donde $\mu=1\mathrm{'}451369\cdots$. La integral logarítmica aparece en varios contextos, entre ellos como una aproximación asintótica de la la función contadora de primos, $\pi(x)$, que indica cuántos primos hay en el intervalo $[1,x]$: $$ \pi(x) \sim_\infty \operatorname{li}(x) \sim_\infty \frac{x}{\ln(x)} $$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 10 de noviembre de 2023

    (911) - Derivación logarítmica y función poligamma (digamma)

    Antes de empezar propiamente digamos qué es la letra digamma: en el alfabeto griego en el periodo arcaico existía la letra digamma Ϝ, ϝ (en $\LaTeX$ se puede poner como $\Gamma \hspace{ -3mm }\raise-.8ex\hbox{$\Gamma$}$). Esta letra, que representaba el sonido /w/, estaba presente varias veces en los primeros versos de la Iliada antes de que se perdiera el sonido y la letra:
    Μῆνιν ἄϝειδε Θεὰ Πηληϊάδεω Ἀχιλῆος // οὐλομένην, ἣ μυρί᾽ Ἀχαιοῖς ἄλγε᾽ ἔθηκε, // πολλὰς δ᾽ ἰφθίμους ψυχὰς Ἄϝιδι προΐαψεν // ἡρώων, αὐτοὺς δὲ ἑλώρια τεῦχε κύνεσσιν // οἰωνοῖσί τε πᾶσι, Διὸς δ᾽ ἐτελείετο βουλή, // ἐξ οὗ δὴ τὰ πρῶτα διαστήτην ἐρίσαντε // Ἀτρεΐδης τε ϝάναξ ἀνδρῶν καὶ δῖος Ἀχιλλεύς.

    La función digamma, inexplicablemente representada con la letra psi, $\psi(x)$, se define: $$ \psi(x) = \psi^{(0)}(x) \overset{\mathrm{def}}{=} \frac{\mathrm{d}}{\mathrm{d}x} \ln\Gamma(x) = \frac{\Gamma^{(1)}(x)}{\Gamma(x)} $$ Mientras que la función poligamma se define como las sucesivas derivadas de la función digamma: $$ \psi^{(n)}(x) \overset{\mathrm{def}}{=} \frac{\mathrm{d}^{n+1}}{\mathrm{d}x^{n+1}} \ln\Gamma(x) = \frac{\mathrm{d}^n}{\mathrm{d}x^n} \psi(x) $$ Derivando recursivamente se obtiene que: $$\begin{array}{ cccc }
    \psi^{(n)} : & \mathbb{R} & \longrightarrow & \mathbb{R}\\[1ex]
    & x & \longmapsto & \displaystyle (-1)^{n+1}\!\!\int_0^\infty\!\! \frac{t^n e^{-x t}} {1-e^{-t}} \text{d}t
    \end{array}$$ Muchas veces estas expresiones, de la derivación logarítmica, se usan para estudiar la variación de una variable o función con respecto al valor instantáneo, en especial cuando tienen un comportamiento exponencial o factorial incluso. Veamos algunos ejemplos en termodinámica: $$ \alpha_P \overset{\mathrm{def}}{=} \frac{\partial}{\partial T}\ln V(P,T,\cdots) \qquad \beta_V \overset{\mathrm{def}}{=} \frac{\partial}{\partial T}\ln P(V,T,\cdots) \qquad \kappa_T \overset{\mathrm{def}}{=} \frac{\partial}{\partial V}\ln P(V,T,\cdots) $$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 27 de octubre de 2023

    (907) - Fórmulas de cuadratura de Newton-Cotes (Integración Numérica)

    Las fórmulas de cuadratura de Newton-Cotes son un conjunto de expresiones para aproximar la integral numérica de una función dada.
    Consideremos una función $f(x)\in\mathcal{C}\big([a,b]\big)$, es decir, una función continua en un intervalo genérico. Tomemos una sucesión de nodos equiespaciados (para simplificar): $$\Delta: a=x_0\leqslant x_1 \leqslant \cdots \leqslant x_i \leqslant \cdots \leqslant x_N \qquad x_i = a+\frac{b-a}{N}i \quad i=0,1,\cdots,N$$ Construyamos ahora el polinomio interpolador en los nodos ya definidos. El teorema de aproximación de Weierstrass nos afirma que hay una sucesión que polinomios que converge uniformente a cualquier función continua en el intervalo $[a,b]$ (en otros términos el conjunto de polinomios es denso en el conjunto de funciones continuas con la norma infinito). Esto nos permite acotar el error al aproximar una función por un suma ponderada de la función evaluada en los nudos: $$ \left| \int_a^b\! f(x)\;\mathrm{d}x - \int_a^b\! P_N(x)\;\mathrm{d}x \right| = \left| \int_a^b\! \big(f(x)-P_N(x)\big)\;\mathrm{d}x \right| \leqslant \int_a^b\! \big|f(x)-P_N(x)\big|\;\mathrm{d}x \leqslant \int_a^b \|f-P_N\|_\infty \;\mathrm{d}x = \|f-P_N\|_\infty (b-a) \leqslant \varepsilon\,(b-a) $$ El polinomio interpolador de Lagrange se puede escribir de la forma $$ P_N(x) = \sum_{i=0}^N f(x_i) \ell_i(x) \implies \int_a^b\! P_N(x)\;\mathrm{d}x = \int_a^b\! \sum_{i=0}^N f(x_i) \ell_i(x) \;\mathrm{d}x = \sum_{i=0}^N f(x_i) \int_a^b \ell_i(x) \;\mathrm{d}x = \sum_{i=0}^N \omega_i f(x_i) $$ Donde se satisface que: $$ \omega_i = \int_a^b\! \ell_i(x) \;\mathrm{d}x \qquad \sum_{i=0}^N \omega_i = b-a $$ La regla del trapecio ($N=1$), de Simpson $1/3$ ($N=2$), de Simpson $3/8$ ($N=4$), y de Boole ($N=5$) son ejemplos de fórmulas de cuadraturas de Newton-Cotes tomando los extremos del intervalo. Si en cambio no se toman los extremos como nodos de interpolación se tiene la regla del rectángulo/punto medio ($N=2$), la del trapecio ($N=3$) o la de Milne ($N=4$).
    De hecho hay una familia de fórmulas de cuadraturas que por su similitud se podrían considerar también de Newton-Cotes como la regla adaptativa de Simpson ($N=4$), la de Hardy ($N=6$), la de Weedle ($N=6$), la de Shovelton ($N=10$), las dos de Woolhouse ($N=10,28$), o la de Durand para un $N$ genérico.


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 13 de octubre de 2023

    (887) - Trigonometría elíptica de Jacobi

    ¿Alguien se ha preguntado el lector por qué cuando se ve el péndulo simple en bachillerato, siempre se aproxima, nunca dando su solución exacta, aun siendo un problema ideal? Esto a veces ocurre hasta en los cursos inferiores de universidad. El problema no es que no tenga una solución analítica cerrada, sino que la introducción matemática previa para poder comprenderlo, es demasiado a veces.

    En física hay ciertas ecuaciones diferenciales cuyas soluciones hacen necesario emplear una familia de funciones: las funciones elípticas de Jacobi. Algunos de estos casos son el péndulo simple (como ya hemos comentado), el oscilador de Duffing, o la solución de la I Ley de Kepler en Relatividad general.

    Esta familia de funciones puede ser muy laboriosa y engorrosa de trabajar y lidiar con ellas, ya que son funciones univariables que se definen en función de un parámetro a través de integrales. Algunas se definen simplemente como la inversa de otra, añadiendo otro grado de dificultad en algunos puntos.

    Ecuación diferencial y solución para el ángulo de un péndulo simple: $$ \frac{\mathrm{d}^2}{\mathrm{d}t^2} \theta(t) + {\omega_0}^2 \sin\!\big(\theta(t)\big) = 0 \implies \theta(t) = 2\operatorname{am}\!\left( \frac{\sqrt{2+c_1\,}}{2}(\omega_0t+c_2) \Big| \frac{4}{2+c_1} \right) $$ Las funciones elípticas de Jacobi se definen como un conjunto de funciones integrales paramétricas: Veamos algunos ejemplos de cómo varían según este parámetro: $$ \lim_{m\to 0} \operatorname{sn}(u|m) = \sin(u) \qquad \lim_{m\to 1} \operatorname{sn}(u|m) = \operatorname{tgh}(u) $$ $$ \lim_{m\to 0} \operatorname{cn}(u|m) = \cos(u) \qquad \lim_{m\to 1} \operatorname{cn}(u|m) = \frac{1}{\cosh(u)} $$ $$ \lim_{m\to 0} \operatorname{dn}(u|m) = 1 \qquad \lim_{m\to 1} \operatorname{dn}(u|m) = \frac{1}{\cosh(u)} $$ $$ \lim_{m\to 0} \operatorname{am}(u|m) = u \qquad \lim_{m\to 1} \operatorname{am}(u|m) = \operatorname{gd}(u) $$ Donde $\operatorname{gd}(u)$ es la función gundermaniana, definida como $$ \operatorname{gd}(u) \overset{\mathrm{def}}{=} \int_0^u \frac{1}{\cosh(t)}\;\mathrm{d}t = \arctan\!\big(\sinh(u)\big) $$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.