viernes, 24 de mayo de 2024

(1009) - Integral de Choquet. Otra definición francesa de la integración

Esta última entrada antes del verano es simplemente para introducir brevemente al lector la idea de la integral de Choquet. Esta defición de la integral, que no es necesariamente aditiva como otras deficiniones, se utiliza en mecánica estadística, teoría del potencial y teoría de la decisión. Dejemos el vídeo introductorio aquí:


Aquí otro donde se comenta cómo escoger los pesos:



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 10 de mayo de 2024

(997) - Integrales trigonométricas de Fresnel

¿Qué crees que nos pondrá? ¿Algo díficil de integrar? - A lo que respondí: No sé, pero mientras no nos ponga ninguna como el seno o coseno de Fresnel, que se definen como una integral... - A lo que me respondieron: ¡No, hombre, no! ¡Cómo va a poner algo de eso! - Al recibir el examen vimos que había que integrar a lo largo de una curva parametrizada, donde según la parametrización indicada se tenían que usar estas funciones.

Empecemos con el seno normalizado de Fresnel: $$\begin{array}{ cccc }
\operatorname{S}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x \!\sin\!\left(\frac{\pi}{2}t^2\right) \;\mathrm{d}t
\end{array}$$ De forma análoga se define el coseno normalizado de Fresnel $$\begin{array}{ cccc }
\operatorname{C}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x \!\cos\!\left(\frac{\pi}{2}t^2\right) \;\mathrm{d}t
\end{array}$$ Veamos una gráfica de las funciones:
Con esta definición es fácil ver que son funciones $\mathscr{C}^\infty$ cuyo desarrollo en serie viene dado por: $$ \operatorname{S}(x) = \sum_{n=0}^\infty \frac{(-1)^n\pi^{2n+1}}{2^{2n+1}(4n+3)(2n+1)!}x^{4n+3} \qquad \operatorname{C}(x) = \sum_{n=0}^\infty \frac{(-1)^n\pi^{2n}}{2^{2n}(4n+1)(2n)!}x^{4n+1} $$ Uno de los límites interesantes que tienen estas funciones son: $$ \lim_{x\to\pm\infty}\operatorname{S}(x) = \lim_{x\to\pm\infty}\operatorname{C}(x) = \pm\frac{1}{2} $$ Veamos la curva conocida como espiral de Cornu $\Big\{\big(\operatorname{C}(x),\operatorname{S}(x)\big)\,/\,x\in\mathbb{R}\Big\}$
Estas funciones están íntimamente relacionadas con la función error gaussiano, $\varepsilon\!\operatorname{rf}(x)$. Estas funciones no solo aparecen en óptica, sino también en ecuaciones diferenciales, al considerar los iterantes de Picard para la ecuación diferencial del péndulo simple.


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 26 de abril de 2024

(991) - Comentarios sobre raíces de polinomios

En el día de hoy traemos algunos comentarios sobre raíces de polinomios, ya sean reales o complejas. Sentemos primero alguna notación, que para un polinomio con coefieciente principal $a_n\neq0$, y grado $n$, $\deg P = n$ : $$ P(z) = a_0 + a_1z+\cdots a_{n-1}z^{n-1}+a_nz^n=\sum_{i=0}^n a_iz^i $$ Su polinomio recíproco asociado a $P(z)$ se define como: $$ P^\mathrm{rec}(z) = \bar{a}_0z^n + \bar{a}_1z^{n-1}+\cdots \bar{a}_{n-1}z+\bar{a}_n=\sum_{i=0}^n \bar{a}_iz^{n-i}=z^n\,\overline{P\!\left(\frac{1}{\bar{z}}\right)} $$
  1. Un polinomio de grado impar con coeficientes reales tiene al menos una raíz real (Teorema de Bolzano).
  2. Un polinomio con coeficientes reales, si $z\in\mathbb{C}$ es solución, entonces si $\bar{z}\in\mathbb{C}$ también es solución, es decir, las raíces complejas aparecen en pares, siendo complejas conjugadas entre sí (Teorema de la raíz conjugada compleja).
  3. Un polinomio con coeficientes enteros, si tiene alguna raíz racional, será el cociente de algún divisor del término independiente entre algún divisor del coeficiente principal (Teorema de la raíz racional).
  4. Existen fórmulas cerradas para raíces de polinomios de grado $4$ o inferior, pero no existe una fórmula cerrada genérica con radicales para grado $5$ o superior, salvo en casos muy particulares como las quínticas de de Moivre. (Teorema de la imposibilidad de Abel-Ruffini).
    De hecho, para las raíces de polinomios de grado $5$ Hermite demostró que se pueden expresar con funciones elípticas, mientras que el teorema de Saüch-Ruffini establece que hay algunas polinomios de grado $5$ cuyas raíces no se pueden expresar con radicales. Las raíces de los polinomios de grado $6$ se pueden expresar con las funciones de Kampé de Fériet, una generalización a dos variables de las funciones hipergeométricas generalizadas.
  5. Un polinomio con coeficientes en algún subconjunto de los complejos y de grado $n$ tiene $n$ raíces complejas (Teorema fundamental del álgebra).
  6. Los números trascendentes (como por ejemplo $\pi,e,\ln2$), por definición, no son raíces de polinios de grado finito con coeficientes racionales.
  7. Hay valores que acotan superiormente en módulo las raíces de un polinomio:
    • La cota de Lagrange es $\displaystyle \max\!\left(1,\frac{1}{|a_n|}\sum_{i=0}^{n-1}|a_i|\right)$.
    • La cota de Cauchy es $\displaystyle 1+\frac{1}{|a_n|}\max_{i=0}^{n-1}|a_i|$.
    • la cota de Lagrange-Zassenhaus es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n]{\left|\frac{a_0}{a_n}\right|}\right)$.
    • Otra cota debida a Lagrange es $\displaystyle \sum_{i=1\\a_i\neq0}^n \left|\frac{a_{i-1}}{a_i}\right|$.
    • la cota de Fujiwara es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n-1]{\left|\frac{a_1}{a_n}\right|},\sqrt[n]{\left|\frac{a_0}{2a_n}\right|}\right)$.
    • La cota de Kojima es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\cdots,\left|\frac{a_1}{a_2}\right|,\left|\frac{a_0}{2a_1}\right|\right)$ .
  8. Las raíces de la derivada de un polinomio están contenidas en la envolvente convexa de las raíces del polinomio primitivo (Teorema de Gauss-Lucas).
  9. Un polinomio con coeficientes reales, su número de raíces positivas del polinomio es o bien igual al número de cambios de signo de los coeficientes no-nulos o bien menor por una diferencia par (Criterio de los signos de Descartes).
  10. Para un polinomio real $P(x)$, el número de cambios de signo de $P(x+a)$ menos el número de cambios de signo de $P(x+b)$ (ambos en la base estándar) menos el número de raíces de $P(x)$ en $(a,b]$ es un número par no-negativo. (Teorema de Budan-Fourier).
  11. Al realizar la división euclídea de un polinomio entre su derivada, y evaluar la secuencia de polinomios en los extremos de un intervalo, el número de raíces reales (en dicho intervalo) es la diferencia del cambio de signos de las cadenas (Teorema de Sturm).
  12. Las raíces de un polinomio son los inversos de las raíces de su polinomio recíproco.
    Este resultado combinado con todos los anteriores puede hasta duplicar la información que tenemos sobre las raíces.



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 12 de abril de 2024

(983) - Cómo aproximar los ceros (las raíces) de una función. Métodos de Newton-Rhapson y Newton-Fourier

Supongamos que tenemos una función $f(x)$ dos veces derivable en un intervalo $[a,b]$, que tiene una raíz $\alpha\in[a,b]$, es decir $f(\alpha)=0$.Además suponemos que tanto la primera derivada, $f^{(1)}(x)$, como la segunda, $f^{(2)}(x)$, no se anulan en el intervalo $[a,b]$.

En el método de Newton-Rhapson suponemos que el extremo derecho del intervalo, $x_0=b$, es una buena estimación para la raíz (de hecho valdría otro punto del intervalo, pero tomaremos este por simplicidad). Se calcula la recta tangente a la función $f(x)$ en el punto $x=x_0$, es decir, $f(x_0) + f^{(1)}(x_0)\,(x-x_0)$, donde estamos despreciando términos de orden $\mathcal{O}\big((x-x_0)^2\big)$. Como la recta tangente a la función es una buena aproximación local a la función, calculamos el punto donde se anula la recta tangente, que lo llamamos $x_1$: $$ x_1 = x_0 - \frac{f(x_0)}{f^{(1)}(x_0)} $$ Si ahora iteramos esto con el punto $x_1$, se llega a otro punto $x_2$, y así sucesivamente se obtiene una sucesión $\{x_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Lo bueno de este método es que existe una constante $\displaystyle M=\frac{1}{2}\sup_{x\in[a,b]}\left\{\left|\frac{f^{(2)}(x)}{f^{(1)}(x)}\right|\right\}>0$ tal que $|x_{n+1}-\alpha|\leqslant M (x_n-\alpha)^2$, es decir, converge cuadráticamente, y donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-\alpha}{(x_n-\alpha)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

El método de Newton-Fourier en la iteración inicial considera el extremo izquierdo del intervalo, $z_0=a$, es una buena primera estimación. En vez de considerar solo la recta tangente, considera la recta paralela a la recta tangente del método de Newton-Raphson, es decir, con la pendiente $f^{(1)}(x_0)$, pero que pase por el punto $\big(z_0,f(z_0)\big)$, por lo que la ecuación de esta recta queda $f(z_0) + f^{(1)}(x_0)\,(x-z_0)$. Una vez más vemos donde se anula, que llamaremos $z_1$, dando: $$ z_1 = z_0 - \frac{f(z_0)}{f^{(1)}(x_0)} $$ Donde una vez más se puede crear una secuencia $\{z_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Es más, la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente decreciente, mientras que la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente creciente, ambas convergiendo a la raíz $\alpha$ de forma cuadrática, ya que existe una constante $K>0$ tal que $|x_{n+1}-z_{n+1}|\leqslant K (x_n-z_n)^2$ donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-z_{n+1}}{(x_n-z_n)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

Si reunimos toda la información $$ \left\{ \begin{matrix} x_{n+1} & = & \displaystyle x_n-\frac{f(x_n)}{f^{(1)}(x_n)} &\quad & x_0=b &\quad& x_n\downarrow\alpha \\ z_{n+1} & = & \displaystyle z_n-\frac{f(z_n)}{f^{(1)}(x_n)} &\quad & z_0=a &\quad& z_n\uparrow\alpha\\ \end{matrix} \right. \\ a = z_0 \lneq z_1 \lneq \cdots \lneq z_n \lneq \cdots \lneq \alpha \lneq \cdots \lneq x_n \lneq \cdots \lneq x_1 \lneq x_0 = b $$ Nótese que el método de Newton-Fourier está pensado para funciones que satisfagan $f^{(1)}(x),f^{(2)}(x)\neq0$ en el intervalo.


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 29 de marzo de 2024

(977) - El nieto de Darwin & Weber corrigen a Coulomb & Maxwell. Los otros Darwin

"Un matemático es un ciego en un cuarto a oscuras buscando un gato negro, que no está ahí" es una frase normalmente asociada al biólogo Charles Robert Darwin ($1809-1882$). Sin embargo, es una cita falsa. En su propia biografía escribió: "Me he arrepentido profundamente de que no seguí lo suficientemente lejos para al menos entender los grandes principios gobernantes de la matemática, que para aquellos que los entienden, parece que tienen un sentido extra."

Estos fuertes sentimientos se los transmitió a su hijo George Howard Darwin ($1845-1912$), matemático y astrónomo, y este al suyo, Charles Galton Darwin ($1887-1962$), un físico.

En el artículo de hoy, tratamos un tema entre la mecánica teórica y la electrodinámica semi-clásica. La ley de Coulomb se suele plantear como una ley empírica para cargas puntuales en reposo (luego se suele generalizar para distribuciones varias de cargas). Nótese el "en reposo". Dos cargas tendrán una interacción tipo Coulomb entre ellas, que perturbará su estado de reposo. El lagrangiano que describe la interacción entre dos partículas es el debido a las partículas sin interacción (simplemente con la energía cinética clásica y una corrección relativista a primer order), y el de la interacción per se entre las partículas: el de la interacción Coulombiana y el lagrangiano de Darwin, que describe las interacciones a primer orden relativista entre dos partículas, que se debe a que cada partícula reacciona al campo magnético generado por la otra.

El físico alemán Wilhelm Eduard Weber ($1804-1891$) es el padre de una concepción de la electrodinámica que lleva su nombre, donde ahora la Ley de Coulomb se corrige para ser dependiente de la velocidad: $$ \vec{F} = \frac{q_1 q_2}{4 \pi \varepsilon_0r^2}\left(1-\frac{\dot{\vec{r}}\cdot\dot{\vec{r}}}{2 c^2}+\frac{\vec{r}\cdot\ddot{\vec{r}}}{c^2}\right) \widehat{r} $$ Darwin no paró ahí sus contribuciones a la electridinámica. Por ejemplo en el tratamiento del átomo de hidrógeno hay muchos matices: normalmente se resuelve la ecuación de la forma más simple posible y luego se tiene en cuenta a posteriori los diferentes efectos que hay presentes, que se introducen como términos extra sucesivos. Entre ellos, está el término de Darwin (en la expansión no-relativista de la ecuación de Dirac, que proviene en las fluctuaciones cuánticas del movimiento del electrón - Zitterbewegung).




Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 15 de marzo de 2024

(971) - Integral exponencial

Consideremos la función integral exponencial, que para valores positivos se define tal que: $$\begin{array}{ cccc }
\operatorname{Ei}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle -\!\!\!\!\!\!\int_{-x}^\infty\!\frac{e^{-t}}{-t} \text{d}t
\end{array}$$ Hay quien incluso prefiere definir la integral exponencial entera: $$\begin{array}{ cccc }
\operatorname{Ein} : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x\! \frac{1-e^{-t}}{t} \text{d}t
\end{array}$$
Sin embargo, esta definición inicial presenta ciertos problemas en algunos casos, por lo que se prefiere a veces definir una familia de funciones íntimamente relacionadas:
$$\begin{array}{ cccc }
\operatorname{E}_n : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_1^\infty\!\frac{e^{-xt}}{t^n} \text{d}t
\end{array}$$
Donde se tiene que $$ \operatorname{E}_1(x) = -\operatorname{Ei}(-x) $$
Que es una relación muy útil a la hora de relacionar las dos definiciones. Es más, $$ \operatorname{E}_1(x) = -\!\!\!\!\!\!\int_x^\infty\!\frac{e^{-t}}{t} \text{d}t $$ Que es básicamente sustituir en la definición anterior la identidad expresadad.
Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ein}(z)=\gamma+\ln(z)+\operatorname{E}_1(z)$$

Nótese que aunque la familia de funciones integrales exponenciales puede parecer más aparatoso, se tienen las siguientes relaciones que simplifican los cálculos. $$ {\operatorname{E}_n}^{(1)}(x) = -\operatorname{E}_{n-1}(x) \iff \operatorname{E}_{n+1}(x) = \frac{e^{-x}-x\operatorname{E}_n(x)}{n} $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 1 de marzo de 2024

(967) - Trigonometría integral

Consideremos dos funciones definidas a partir de integrales. El seno integral se define como: $$\begin{array}{ cccc } \operatorname{Si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Sin embargo, hay quienes prefieren la definición: $$\begin{array}{ cccc } \operatorname{si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Donde ambas están interrelacionadas por $$ \operatorname{Si}(z)-\operatorname{si}(z)=\frac{\pi}{2}$$ La función coseno integral viene definida por $$\begin{array}{ cccc } \operatorname{ci}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\cos(t)}{t} \text{d}t \end{array}$$ A su vez, hay quien recurre a la función coseno integral entero para definir la anterior, donde se tiene que: $$\begin{array}{ cccc } \operatorname{Cin}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{1-\cos(t)}{t} \text{d}t \end{array}$$ Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ci}(z)=\gamma+\ln(z)-\operatorname{Cin}(z)$$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.