viernes, 1 de marzo de 2024

(967) - Trigonometría integral

$$\begin{array}{ cccc }
\operatorname{Si} : & \mathbb{R} & \longrightarrow & \displaystyle\left[\int_{-\pi}^0 \!\frac{\sin(t)}{t} \text{d}t,\int_0^\pi \!\frac{\sin(t)}{t} \text{d}t\right]\subsetneq\mathbb{R} \\
& x & \longmapsto & \displaystyle \int_0^x \!\frac{\sin(t)}{t} \text{d}t
\end{array}$$

$$\begin{array}{ cccc }
\operatorname{si} : & \mathbb{R} & \longrightarrow & \displaystyle\left[\int_{-\pi}^0 \!\frac{\sin(t)}{t}+\frac{1}{2} \text{d}t,\int_0^\pi \!\frac{\sin(t)}{t}-\frac{1}{2} \text{d}t\right]\subsetneq\mathbb{R} \\
& x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\sin(t)}{t} \text{d}t
\end{array}$$

$$\begin{array}{ cccc }
\operatorname{ci} : & \mathbb{R} & \longrightarrow & \displaystyle \left(-\infty, -\int_{\frac{\pi}{2}}^\infty \!\frac{\cos(t)}{t} \text{d}t\right]  \subsetneq \mathbb{R} \\
& x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\cos(t)}{t} \text{d}t
\end{array}$$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 16 de febrero de 2024

(953) - Polinomios de Bernstein

$$ B_N(x) = \sum_{k=0}^N f\left(a+\frac{b-a}{N}k\right)\binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} $$
$$ B_N(x) = \sum_{k=0}^N \beta_k B_{N,k}(x) ;$$
Base de los polinomios de Bernstein de grado $N$ tiene $(N+1)$ polinomios de grado $N$ , $\Big\{ B_{N,k}(x)\Big\}_{k=0}^N$ viene dado por
$$ B_{N,k}(x) = \binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} \qquad \beta_k = f\left(a+\frac{b-a}{N}k\right) $$
Donde $\beta_k$ son los coeficientes de Bernstein-Bézier

Tras una normalización donde se define la nueva variable independiente $t=\displaystyle \frac{x-a}{b-a}$ se simplifican a
$$ \binom{N}{k} \left(\frac{k}{N}\right)^k\left(1-\frac{k}{N}\right)^{N-k} = \binom{N}{k}\frac{k^k (N-k)^{N-k}}{N^N} \geqslant B_{N,k}(t) \geqslant 0 $$

$$ \frac{N!}{2^N \displaystyle \left(\frac{N}{2}\right)!^2} \geqslant B_{N,\frac{N}{2}}(t) \geqslant 0 $$

$$ B_{N,k}(t)=B_{N,N-k}(1-t) $$
$$ B_N(t) = \sum_{k=0}^N f\left(\frac{k}{N}\right)\binom{N}{k} t^k(1-t)^{N-k} $$
$$ 0 \leqslant t \leqslant 1 \implies \sum_{k=0}^N B_{N,k}(t) = 1 $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 2 de febrero de 2024

(941) - Cómo calcular rápidamente la raíz cuadrada de cualquier número

Supongamos que tenemos un número $a$ positivo, $a>0$, del que queremos calcular su raíz cuadrada, $\sqrt{a\;}$. De alguna forma nos damos cuenta que existe otro número $n$ tal que $a\approx n^2$, es decir, $n\approx \sqrt{a\;}$.

Al aproximar $\sqrt{a\;}$ por $n$, estaremos cometiendo un error $\varepsilon$, que es de la forma $\varepsilon=\sqrt{a\;}-n$. Escrito de otra forma, $\sqrt{a\;}=n+\varepsilon$, por lo que $a=(n+\varepsilon)^2$. Si pudiésemos calcular de forma exacta el error $\varepsilon$, por ejemplo a través de una fórmula, podríamos calcular la raíz cuadrada de este forma. Si desarrollamos la última expresión, se llega a $\varepsilon^2 + 2n\,\varepsilon + (n^2-a)=0$, que es una ecuación polinómica de segundo grado en $\varepsilon$, por lo que: $$ \varepsilon = \frac{-2n\pm\sqrt{(2n)^2-4(n^2-a)\;}}{2} = -n\pm\sqrt{a\;}$$ O sea, que para no tener que calcular una raíz cuadrada, hay que calcular una raíz cuadrada... Hemos llegado otra vez al problema que queríamos evitar. Sin embargo, esto tiene fácil solución: Si nuestra aproximación $n$ es suficientemente buena a la raíz cuadrada $\sqrt{a\;}$, esto implicará que el error será pequeño, $\varepsilon\ll 1$, y en especial su cuadrado más, $\varepsilon^2\approx0$. Ahora sustituyendo esta aproximación para el error en la fórmula anterior: $$ 2n\,\varepsilon + (n^2-a) \approx 0 \implies \varepsilon \approx \frac{a-n^2}{2n} $$ Entonces la fórmula que buscamos es $$ \boxed{ \sqrt{a\;} \approx n + \frac{a-n^2}{2n} } $$ Por ejemplo si queremos calcular la raíz de $a=15$, tomamos $n=4$, ya que $4^2=16\approx 15$ y al usar la fórmula anterior, $$ \boldsymbol{3\mathrm{'}87}29833\dots = \sqrt{15\;} \approx 4 + \frac{15-4^2}{2\cdot 4} = 3\frac{7}{8} = \boldsymbol{3\mathrm{'}87}5 $$ Lo bueno de esta fórmula es que se puede usar de forma recursiva para ir encontrando sucesivas aproximaciones que tienden a la raíz: Ahora $n=3\mathrm{'}875$ y $n^2=15\mathrm{'}015625$ $$ \boldsymbol{3\mathrm{'}872983}3\dots = \sqrt{15\;} \approx 4 + \frac{15-3\mathrm{'}875^2}{2\cdot 3\mathrm{'}875} = 3\frac{433}{496} = \boldsymbol{3\mathrm{'}872983}8\dots $$
Otro ejemplo si queremos calcular la raíz de $a=2$, tomamos $n=1$, ya que $1^2=1\approx 2$ y al usar la fórmula anterior, $$ \boldsymbol{1}\mathrm{'}4142135\dots = \sqrt{2\;} \approx 1 + \frac{2-1^2}{2\cdot 1} = 3\frac{1}{2} = \boldsymbol{1}\mathrm{'}5 $$ Y en la siguiente iteración $n=1\mathrm{'}5$ y $n^2=2\mathrm{'}25$ $$ \boldsymbol{1\mathrm{'}41}42135\dots = \sqrt{2\;} \approx 4 + \frac{2-1\mathrm{'}5^2}{2\cdot 1\mathrm{'}5} = 1\frac{5}{12} = \boldsymbol{1\mathrm{'}41}\bar{6}\dots $$ Y en la siguiente iteración $n=1\mathrm{'}41\bar{6}$ y $n^2=2\mathrm{'}0069\bar{4}$ $$ \boldsymbol{1\mathrm{'}41421}35\dots = \sqrt{2\;} \approx 1\mathrm{'}41\bar{6} + \frac{2-1\mathrm{'}41\bar{6}^2}{2\cdot 1\mathrm{'}41\bar{6}} = 1\frac{169}{408} = \boldsymbol{1\mathrm{'}41421}56\dots $$ En general si queremos hallarla raíz $p-$ésima de un número $a$, $\sqrt[p]{a\;}$, tal que $a\approx n^p \iff n\approx\sqrt[p]{a\;}$ se puede hallar de forma similar con: $$ \boxed{ \sqrt[p]{a\;} \approx n + \frac{a-n^p}{p n^{p-1}} } $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 22 de diciembre de 2023

(937) - Notación de Landau ampliada

Veamos algunos ejemplos de notación de las llamadas O:
  • Denotamos $f(x)\in{\scriptsize \mathcal{O}}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\lneq M g(x)$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=0$
  • Denotamos $f(x)\in\mathcal{O}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\leqslant M g(x)$ o con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\in\omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $f(x)> M g(x)$ ocon su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=\infty$.
  • Denotamos $f(x)\in\Omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\geqslant M g(x)$ ocon su definición de límites, $\displaystyle \limsup_{x\to a}\left|\frac{f(x)}{g(x)}\right|>0$, es decir, si $f(x)\not\in{\scriptsize \mathcal{O}}\big(g(x)\big)$.
  • Denotamos $f(x)\in\Omega_{+}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}>0$.
  • Denotamos $f(x)\in\Omega_{-}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}<0$.
  • Denotamos $f(x)\in\Theta\big(g(x)\big)$ cuando $x\to a$ si existe $M_1,M_2>0$ para $|x-a|<\delta$ tal que $M_1g(x)\leqslant|f(x)|\leqslant M_2g(x)$ o con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}>0 \quad \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\sim g(x)$ cuando $x\to a$ si existe $\varepsilon>0$ para $|x-a|<\delta$ tal que $\displaystyle \left|1-\frac{f(x)}{g(x)}\right|<\varepsilon$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=1$

  • También equiste la notación con virgulilla, por ejemplo $f(x)\in\tilde{\mathcal{O}}\big(g(x)\big)$, que que significa que existe $k\in\mathbb{N}$ tal que $f(x)\in\mathcal{O}\Big(g(x)\ln^k\!\big(g(x)\big)\Big)$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 8 de diciembre de 2023

    (929) - Todo es una aproximación lineal - Relatividad y polinomios de Taylor

    La gran mayoría de los problemas tanto en matemáticas como en física no son problemas lineales. Un claro ejemplo es el péndulo simple, cuya solución hace falta de funciones elípticas. Es más, el problema del péndulo doble tiene una solución analítica, pero no cerrada (es decir, la solución es diferenciable en un punto con su serie convergendiendo a ella, pero no se puede expresar como una combinación finita de otras funciones bien definidas). Sin embargo, la existencia de puntos de equilibrio, nos dice que hay soluciones constantes bajo ciertas condiciones iniciales, lo que nos permite estudiar una muy buena aproximación: como las pequeñas oscilaciones o perturbaciones en torno a un punto de equilibrio. Volviendo al ejemplo del péndulo simple: $$ \ddot{\theta}+{\omega_0}^2\sin\theta=0 \implies \theta(t)\approx\theta_\mathrm{eq}+\delta\theta(t) = \begin{cases} \displaystyle \theta_0\cos(\omega_0t)+\frac{\dot{\theta}_0}{\omega_0}\sin(\omega_0t) & \theta_\mathrm{eq}=0 \\ \displaystyle \pm\pi + (\theta_0\mp\pi)\cosh(\omega_0t)+\frac{\dot{\theta}_0}{\omega_0}\sinh(\omega_0t) & \theta_\mathrm{eq}=\pm\pi \end{cases}$$ Este tipo de aproximaciones también se pueden ver en la relación entre mecánica clásica y relatividad. Muchas de las fórmulas de mecánica clásica, por ejemplo para el momento lineal o la energía cinética son en realidad las aproximaciones de Taylor a primer orden del momento lineal relativista y de la energía relativista. $$ \vec{p} = \gamma m_0 \vec{v} \implies T_1(\vec{p},0)(\vec{v}) = \underbrace{m_0\vec{v}}_\text{Momento lineal clásico} + \underbrace{\mathcal{O}\big(v^3\big)}_\text{Correcciones relativistas del momento lineal} \\ E^2 = (pc)^2 + {\big(m_0 c^2\big)}^2 \implies T_1(E,0)\big(v^2\big) = \underbrace{m_0 c^2}_\text{Energía interna} + \underbrace{\frac{1}{2}m_0 v^2}_\text{Energía cinética clásica} + \underbrace{\mathcal{O}(v^4)}_\text{Correcciones relativistas de la energía} $$
    Otro ejemplo es el estudio de oscilaciones de un oscilador anarmónico, donde la energía potencial $U(x)$ viene dada por: $$ U(x) = \underbrace{U(x_\mathrm{eq}) + \frac{1}{2}m{\omega_0}^2(x-x_\mathrm{eq})^2}_\text{Términos armónicos} + \underbrace{\frac{1}{6}U^{(3)}(x_\mathrm{eq})\,(x-x_\mathrm{eq})^3+\frac{1}{24}U^{(4)}(x_\mathrm{eq})\,(x-x_\mathrm{eq})^4+\cdots}_\text{Términos estrictamente anarmónicos}$$ Otros ejemplos serían las leyes de Boyle-Mariotte, Charles y Gay-Lussac, o en el caso más general la ley de los gases ideales son en realidad aproximaciones asintóticas del comportamiento de un gas real.
    Muchas veces no pensamos que realmente son aproximaciones de otras fórmulas, pero las tenemos tan interiorizadas y funcionan tan bien que uno ni se lo plantea. Muchas veces en física a la hora de estudiar un suceso no nos importa su comportamiento global o en todo momento, ya que puede entrañar mucha dificultad, sino lo que hacemos es estudiar su comportamiento asintótico en puntos concretos como en el infinito o puntos de equilibrio. Con esto no obtenemos una solución exacta, sino una aproximación local a la solución que nos permite estudiar el problema en un entorno y dar sucesivas aproximaciones. Muchas veces las aproximaciones se utilizan por conveniencia, ya que unos términos dominan sobre otras al ser varios órdenes de magnitud mayores.
    Hace relativamente poco recuerdo que un profesor nos contó que realmente en física los distintos fenómenos y sucesos no son independientes ni aislados, sino que se dan muchas veces varios a la vez, pero estudiamos cada uno en una región donde predominan sobre el resto para enterder bien su comportamiento. Esto es lo que hacemos muchas veces: estudiar el comportamiento local para intentar entender mejor el general al descomponerlo.


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 24 de noviembre de 2023

    (919) - Integral logarítmica

    Introduzcamos hoy una de las funciones muy curiosas a mi parecer. $$\begin{array}{ cccc }
    \operatorname{li} : & \mathbb{R}^+ & \longrightarrow & \mathbb{R} \\[2.5ex]
    & x & \longmapsto & \displaystyle ―\hspace{-12pt}\int_0^x\! \frac{1}{\ln(t)} \mathrm{d}t \end{array}$$ La integral logarítmica queda relacionada con la integral exponencial, otra función íntimamente relacionada, cuya definición es $ \displaystyle \operatorname{Ei}(x) \overset{\mathrm{def}}{=} ―\hspace{-12pt}\int_{-\infty}^x\! \frac{e^u}{u} \;\mathrm{d}u $, y la relación se da: $$ \operatorname{li}(x) = \operatorname{Ei}\!\big(\ln(x)\big) \iff \operatorname{li}\!\big(e^x\big) = \operatorname{Ei}(x) $$ La integral logarítmica desplaza o la integral logarítmica euleriana se define como $$\begin{array}{ cccc } \operatorname{Li} : & \mathbb{R}^+ & \longrightarrow & \mathbb{R} \\[2.5ex]
    & x & \longmapsto & \displaystyle \int_2^x\! \frac{1}{\ln(t)} \mathrm{d}t \triangleq \operatorname{li}(x) -\operatorname{li}(2) \end{array}$$ Donde la diferencia entre una y otra viene dado por: $$ \operatorname{li}(x) - \operatorname{Li}(x) \triangleq\, ―\hspace{-12pt}\int_0^2 \frac{1}{\ln(t)} \mathrm{d}t = 1\mathrm{'}04516378\cdots $$ La constante de Ramanujan–Soldner, que se define tal que: $$ \mu\in\mathbb{R} / \int_0^\mu\! \frac{1}{\ln t}\;\mathrm{d}t=0 $$ Es decir, es el único cero de la integral exponencial, donde $\mu=1\mathrm{'}451369\cdots$. La integral logarítmica aparece en varios contextos, entre ellos como una aproximación asintótica de la la función contadora de primos, $\pi(x)$, que indica cuántos primos hay en el intervalo $[1,x]$: $$ \pi(x) \sim_\infty \operatorname{li}(x) \sim_\infty \frac{x}{\ln(x)} $$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

    viernes, 10 de noviembre de 2023

    (911) - Derivación logarítmica y función poligamma (digamma)

    Antes de empezar propiamente digamos qué es la letra digamma: en el alfabeto griego en el periodo arcaico existía la letra digamma Ϝ, ϝ (en $\LaTeX$ se puede poner como $\Gamma \hspace{ -3mm }\raise-.8ex\hbox{$\Gamma$}$). Esta letra, que representaba el sonido /w/, estaba presente varias veces en los primeros versos de la Iliada antes de que se perdiera el sonido y la letra:
    Μῆνιν ἄϝειδε Θεὰ Πηληϊάδεω Ἀχιλῆος // οὐλομένην, ἣ μυρί᾽ Ἀχαιοῖς ἄλγε᾽ ἔθηκε, // πολλὰς δ᾽ ἰφθίμους ψυχὰς Ἄϝιδι προΐαψεν // ἡρώων, αὐτοὺς δὲ ἑλώρια τεῦχε κύνεσσιν // οἰωνοῖσί τε πᾶσι, Διὸς δ᾽ ἐτελείετο βουλή, // ἐξ οὗ δὴ τὰ πρῶτα διαστήτην ἐρίσαντε // Ἀτρεΐδης τε ϝάναξ ἀνδρῶν καὶ δῖος Ἀχιλλεύς.

    La función digamma, inexplicablemente representada con la letra psi, $\psi(x)$, se define: $$ \psi(x) = \psi^{(0)}(x) \overset{\mathrm{def}}{=} \frac{\mathrm{d}}{\mathrm{d}x} \ln\Gamma(x) = \frac{\Gamma^{(1)}(x)}{\Gamma(x)} $$ Mientras que la función poligamma se define como las sucesivas derivadas de la función digamma: $$ \psi^{(n)}(x) \overset{\mathrm{def}}{=} \frac{\mathrm{d}^{n+1}}{\mathrm{d}x^{n+1}} \ln\Gamma(x) = \frac{\mathrm{d}^n}{\mathrm{d}x^n} \psi(x) $$ Derivando recursivamente se obtiene que: $$\begin{array}{ cccc }
    \psi^{(n)} : & \mathbb{R} & \longrightarrow & \mathbb{R}\\[1ex]
    & x & \longmapsto & \displaystyle (-1)^{n+1}\!\!\int_0^\infty\!\! \frac{t^n e^{-x t}} {1-e^{-t}} \text{d}t
    \end{array}$$ Muchas veces estas expresiones, de la derivación logarítmica, se usan para estudiar la variación de una variable o función con respecto al valor instantáneo, en especial cuando tienen un comportamiento exponencial o factorial incluso. Veamos algunos ejemplos en termodinámica: $$ \alpha_P \overset{\mathrm{def}}{=} \frac{\partial}{\partial T}\ln V(P,T,\cdots) \qquad \beta_V \overset{\mathrm{def}}{=} \frac{\partial}{\partial T}\ln P(V,T,\cdots) \qquad \kappa_T \overset{\mathrm{def}}{=} \frac{\partial}{\partial V}\ln P(V,T,\cdots) $$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.