viernes, 26 de abril de 2024

(991) - Comentarios sobre raíces de polinomios

En el día de hoy traemos algunos comentarios sobre raíces de polinomios, ya sean reales o complejas. Sentemos primero alguna notación, que para un polinomio con coefieciente principal $a_n\neq0$, y grado $n$, $\deg P = n$ : $$ P(z) = a_0 + a_1z+\cdots a_{n-1}z^{n-1}+a_nz^n=\sum_{i=0}^n a_iz^i $$ Su polinomio recíproco asociado a $P(z)$ se define como: $$ P^\mathrm{rec}(z) = \bar{a}_0z^n + \bar{a}_1z^{n-1}+\cdots \bar{a}_{n-1}z+\bar{a}_n=\sum_{i=0}^n \bar{a}_iz^{n-i}=z^n\,\overline{P\!\left(\frac{1}{\bar{z}}\right)} $$
  1. Un polinomio de grado impar con coeficientes reales tiene al menos una raíz real (Teorema de Bolzano).
  2. Un polinomio con coeficientes reales, si $z\in\mathbb{C}$ es solución, entonces si $\bar{z}\in\mathbb{C}$ también es solución, es decir, las raíces complejas aparecen en pares, siendo complejas conjugadas entre sí (Teorema de la raíz conjugada compleja).
  3. Un polinomio con coeficientes enteros, si tiene alguna raíz racional, será el cociente de algún divisor del término independiente entre algún divisor del coeficiente principal (Teorema de la raíz racional).
  4. Existen fórmulas cerradas para raíces de polinomios de grado $4$ o inferior, pero no existe una fórmula cerrada genérica con radicales para grado $5$ o superior, salvo en casos muy particulares como las quínticas de de Moivre. (Teorema de la imposibilidad de Abel-Ruffini).
    De hecho, las raíces de polinomios de grado $5$ Hermite demostró que se pueden expresar con funciones elípticas, mientras que el teorema de Saüch-Ruffini establece que hay algunas polinomios de grado $5$ cuyas raíces no se pueden expresar con radicales.
  5. Un polinomio con coeficientes en algún subconjunto de los complejos y de grado $n$ tiene $n$ raíces complejas (Teorema fundamental del álgebra).
  6. Los números trascendentes (como por ejemplo $\pi,e,\ln2$), por definición, no son raíces de polinios de grado finito con coeficientes racionales.
  7. Hay valores que acotan superiormente en módulo las raíces de un polinomio. La cota de Lagrange es $\displaystyle \max\!\left(1,\frac{1}{|a_n|}\sum_{i=0}^{n-1}|a_i|\right)$, la cota de Cauchy es $\displaystyle 1+\frac{1}{|a_n|}\max_{i=0}^{n-1}|a_i|$, la cota de Lagrange-Zassenhaus es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n]{\left|\frac{a_0}{a_n}\right|}\right)$, otra cota debida a Lagrange es $\displaystyle \sum_{i=1\\a_i\neq0}^n \left|\frac{a_{i-1}}{a_i}\right|$, la cota de Fujiwara es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n-1]{\left|\frac{a_1}{a_n}\right|},\sqrt[n]{\left|\frac{a_0}{2a_n}\right|}\right)$ y la cota de Kojima es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\cdots,\left|\frac{a_1}{a_2}\right|,\left|\frac{a_0}{2a_1}\right|\right)$ .
  8. Las raíces de la derivada de un polinomio están contenidas en la envolvente convexa de las raíces del polinomio primitivo (Teorema de Gauss-Lucas).
  9. Un polinomio con coeficientes reales, su número de raíces positivas del polinomio es o bien igual al número de cambios de signo de los coeficientes no-nulos o bien menor por una diferencia par (Criterio de los signos de Descartes).
  10. Polinomio (Teorema de Budan-Fourier).
  11. Al realizar la división euclídea de un polinomio entre su derivada, y evaluar la secuencia de polinomios en los extremos de un intervalo, el número de raíces reales (en dicho intervalo) es la diferencia del cambio de signos de las cadenas (Teorema de Sturm).
  12. Las raíces de un polinomio son los inversos de las raíces de su polinomio recíproco.
    Este resultado combinado con todos los anteriores puede hasta duplicar la información que tenemos sobre las raíces.



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 12 de abril de 2024

(983) - Cómo aproximar los ceros (las raíces) de una función. Métodos de Newton-Rhapson y Newton-Fourier

Supongamos que tenemos una función $f(x)$ dos veces derivable en un intervalo $[a,b]$, que tiene una raíz $\alpha\in[a,b]$, es decir $f(\alpha)=0$.Además suponemos que tanto la primera derivada, $f^{(1)}(x)$, como la segunda, $f^{(2)}(x)$, no se anulan en el intervalo $[a,b]$.

En el método de Newton-Rhapson suponemos que el extremo derecho del intervalo, $x_0=b$, es una buena estimación para la raíz (de hecho valdría otro punto del intervalo, pero tomaremos este por simplicidad). Se calcula la recta tangente a la función $f(x)$ en el punto $x=x_0$, es decir, $f(x_0) + f^{(1)}(x_0)\,(x-x_0)$, donde estamos despreciando términos de orden $\mathcal{O}\big((x-x_0)^2\big)$. Como la recta tangente a la función es una buena aproximación local a la función, calculamos el punto donde se anula la recta tangente, que lo llamamos $x_1$: $$ x_1 = x_0 - \frac{f(x_0)}{f^{(1)}(x_0)} $$ Si ahora iteramos esto con el punto $x_1$, se llega a otro punto $x_2$, y así sucesivamente se obtiene una sucesión $\{x_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Lo bueno de este método es que existe una constante $\displaystyle M=\frac{1}{2}\sup_{x\in[a,b]}\left\{\left|\frac{f^{(2)}(x)}{f^{(1)}(x)}\right|\right\}>0$ tal que $|x_{n+1}-\alpha|\leqslant M (x_n-\alpha)^2$, es decir, converge cuadráticamente, y donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-\alpha}{(x_n-\alpha)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

El método de Newton-Fourier en la iteración inicial considera el extremo izquierdo del intervalo, $z_0=a$, es una buena primera estimación. En vez de considerar la recta tangente, considera la recta paralela a la recta tangente del método de Newton-Raphson, es decir, con la pendiente $f^{(1)}(x_0)$, pero que pase por el punto $\big(z_0,f(z_0)\big)$, por lo que la ecuación de esta recta queda $f(z_0) + f^{(1)}(x_0)\,(x-z_0)$. Una vez más vemos donde se anula, que llamaremos $z_1$, dando: $$ z_1 = z_0 - \frac{f(z_0)}{f^{(1)}(x_0)} $$ Donde una vez más se puede crear una secuencia $\{z_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Es más, la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente decreciente, mientras que la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente creciente, ambas convergiendo a la raíz $\alpha$ de forma cuadrática, ya que existe una constante $K>0$ tal que $|x_{n+1}-z_{n+1}|\leqslant K (x_n-z_n)^2$ donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-z_{n+1}}{(x_n-z_n)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

Si reunimos toda la información $$ \left\{ \begin{matrix} x_{n+1} & = & \displaystyle x_n-\frac{f(x_n)}{f^{(1)}(x_n)} &\quad & x_0=b &\quad& x_n\downarrow\alpha \\ z_{n+1} & = & \displaystyle z_n-\frac{f(z_n)}{f^{(1)}(x_n)} &\quad & z_0=a &\quad& z_n\uparrow\alpha\\ \end{matrix} \right. \\ a = z_0 \lneq z_1 \lneq \cdots \lneq z_n \lneq \cdots \lneq \alpha \lneq \cdots \lneq x_n \lneq \cdots \lneq x_1 \lneq x_0 = b $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 29 de marzo de 2024

(977) - El nieto de Darwin & Weber corrigen a Coulomb & Maxwell. Los otros Darwin

"Un matemático es un ciego en un cuarto a oscuras buscando un gato negro, que no está ahí" es una frase normalmente asociada al biólogo Charles Robert Darwin ($1809-1882$). Sin embargo, es una cita falsa. En su propia biografía escribió: "Me he arrepentido profundamente de que no seguí lo suficientemente lejos para al menos entender los grandes principios gobernantes de la matemática, que para aquellos que los entienden, parece que tienen un sentido extra."

Estos fuertes sentimientos se los transmitió a su hijo George Howard Darwin ($1845-1912$), matemático y astrónomo, y este al suyo, Charles Galton Darwin ($1887-1962$), un físico.

En el artículo de hoy, tratamos un tema entre la mecánica teórica y la electrodinámica semi-clásica. La ley de Coulomb se suele plantear como una ley empírica para cargas puntuales en reposo (luego se suele generalizar para distribuciones varias de cargas). Nótese el "en reposo". Dos cargas tendrán una interacción tipo Coulomb entre ellas, que perturbará su estado de reposo. El lagrangiano que describe la interacción entre dos partículas es el debido a las partículas sin interacción (simplemente con la energía cinética clásica y una corrección relativista a primer order), y el de la interacción per se entre las partículas: el de la interacción Coulombiana y el lagrangiano de Darwin, que describe las interacciones a primer orden relativista entre dos partículas, que se debe a que cada partícula reacciona al campo magnético generado por la otra.

El físico alemán Wilhelm Eduard Weber ($1804-1891$) es el padre de una concepción de la electrodinámica que lleva su nombre, donde ahora la Ley de Coulomb se corrige para ser dependiente de la velocidad: $$ \vec{F} = \frac{q_1 q_2}{4 \pi \varepsilon_0r^2}\left(1-\frac{\dot{\vec{r}}\cdot\dot{\vec{r}}}{2 c^2}+\frac{\vec{r}\cdot\ddot{\vec{r}}}{c^2}\right) \widehat{r} $$ Darwin no paró ahí sus contribuciones a la electridinámica. Por ejemplo en el tratamiento del átomo de hidrógeno hay muchos matices: normalmente se resuelve la ecuación de la forma más simple posible y luego se tiene en cuenta a posteriori los diferentes efectos que hay presentes, que se introducen como términos extra sucesivos. Entre ellos, está el término de Darwin (en la expansión no-relativista de la ecuación de Dirac, que proviene en las fluctuaciones cuánticas del movimiento del electrón - Zitterbewegung).




Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 15 de marzo de 2024

(971) - Integral exponencial

Consideremos la función integral exponencial, que para valores positivos se define tal que: $$\begin{array}{ cccc }
\operatorname{Ei}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle -\!\!\!\!\!\!\int_{-x}^\infty\!\frac{e^{-t}}{-t} \text{d}t
\end{array}$$ Hay quien incluso prefiere definir la integral exponencial entera: $$\begin{array}{ cccc }
\operatorname{Ein} : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x\! \frac{1-e^{-t}}{t} \text{d}t
\end{array}$$
Sin embargo, esta definición inicial presenta ciertos problemas en algunos casos, por lo que se prefiere a veces definir una familia de funciones íntimamente relacionadas:
$$\begin{array}{ cccc }
\operatorname{E}_n : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_1^\infty\!\frac{e^{-xt}}{t^n} \text{d}t
\end{array}$$
Donde se tiene que $$ \operatorname{E}_1(x) = -\operatorname{Ei}(-x) $$
Que es una relación muy útil a la hora de relacionar las dos definiciones. Es más, $$ \operatorname{E}_1(x) = -\!\!\!\!\!\!\int_x^\infty\!\frac{e^{-t}}{t} \text{d}t $$ Que es básicamente sustituir en la definición anterior la identidad expresadad.
Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ein}(z)=\gamma+\ln(z)+\operatorname{E}_1(z)$$

Nótese que aunque la familia de funciones integrales exponenciales puede parecer más aparatoso, se tienen las siguientes relaciones que simplifican los cálculos. $$ {\operatorname{E}_n}^{(1)}(x) = -\operatorname{E}_{n-1}(x) \iff \operatorname{E}_{n+1}(x) = \frac{e^{-x}-x\operatorname{E}_n(x)}{n} $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 1 de marzo de 2024

(967) - Trigonometría integral

Consideremos dos funciones definidas a partir de integrales. El seno integral se define como: $$\begin{array}{ cccc } \operatorname{Si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Sin embargo, hay quienes prefieren la definición: $$\begin{array}{ cccc } \operatorname{si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Donde ambas están interrelacionadas por $$ \operatorname{Si}(z)-\operatorname{si}(z)=\frac{\pi}{2}$$ La función coseno integral viene definida por $$\begin{array}{ cccc } \operatorname{ci}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\cos(t)}{t} \text{d}t \end{array}$$ A su vez, hay quien recurre a la función coseno integral entero para definir la anterior, donde se tiene que: $$\begin{array}{ cccc } \operatorname{Cin}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{1-\cos(t)}{t} \text{d}t \end{array}$$ Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ci}(z)=\gamma+\ln(z)-\operatorname{Cin}(z)$$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 16 de febrero de 2024

(953) - Polinomios de Bernstein

$$ B_N(x) = \sum_{k=0}^N f\left(a+\frac{b-a}{N}k\right)\binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} $$
$$ B_N(x) = \sum_{k=0}^N \beta_k B_{N,k}(x) ;$$
Base de los polinomios de Bernstein de grado $N$ tiene $(N+1)$ polinomios de grado $N$ , $\Big\{ B_{N,k}(x)\Big\}_{k=0}^N$ viene dado por
$$ B_{N,k}(x) = \binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} \qquad \beta_k = f\left(a+\frac{b-a}{N}k\right) $$
Donde $\beta_k$ son los coeficientes de Bernstein-Bézier

Tras una normalización donde se define la nueva variable independiente $t=\displaystyle \frac{x-a}{b-a}$ se simplifican a
$$ \binom{N}{k} \left(\frac{k}{N}\right)^k\left(1-\frac{k}{N}\right)^{N-k} = \binom{N}{k}\frac{k^k (N-k)^{N-k}}{N^N} \geqslant B_{N,k}(t) \geqslant 0 $$

$$ \frac{N!}{2^N \displaystyle \left(\frac{N}{2}\right)!^2} \geqslant B_{N,\frac{N}{2}}(t) \geqslant 0 $$

$$ B_{N,k}(t)=B_{N,N-k}(1-t) $$
$$ B_N(t) = \sum_{k=0}^N f\left(\frac{k}{N}\right)\binom{N}{k} t^k(1-t)^{N-k} $$
$$ 0 \leqslant t \leqslant 1 \implies \sum_{k=0}^N B_{N,k}(t) = 1 $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 2 de febrero de 2024

(941) - Cómo calcular rápidamente la raíz cuadrada de cualquier número

Supongamos que tenemos un número $a$ positivo, $a>0$, del que queremos calcular su raíz cuadrada, $\sqrt{a\;}$. De alguna forma nos damos cuenta que existe otro número $n$ tal que $a\approx n^2$, es decir, $n\approx \sqrt{a\;}$.

Al aproximar $\sqrt{a\;}$ por $n$, estaremos cometiendo un error $\varepsilon$, que es de la forma $\varepsilon=\sqrt{a\;}-n$. Escrito de otra forma, $\sqrt{a\;}=n+\varepsilon$, por lo que $a=(n+\varepsilon)^2$. Si pudiésemos calcular de forma exacta el error $\varepsilon$, por ejemplo a través de una fórmula, podríamos calcular la raíz cuadrada de este forma. Si desarrollamos la última expresión, se llega a $\varepsilon^2 + 2n\,\varepsilon + (n^2-a)=0$, que es una ecuación polinómica de segundo grado en $\varepsilon$, por lo que: $$ \varepsilon = \frac{-2n\pm\sqrt{(2n)^2-4(n^2-a)\;}}{2} = -n\pm\sqrt{a\;}$$ O sea, que para no tener que calcular una raíz cuadrada, hay que calcular una raíz cuadrada... Hemos llegado otra vez al problema que queríamos evitar. Sin embargo, esto tiene fácil solución: Si nuestra aproximación $n$ es suficientemente buena a la raíz cuadrada $\sqrt{a\;}$, esto implicará que el error será pequeño, $\varepsilon\ll 1$, y en especial su cuadrado más, $\varepsilon^2\approx0$. Ahora sustituyendo esta aproximación para el error en la fórmula anterior: $$ 2n\,\varepsilon + (n^2-a) \approx 0 \implies \varepsilon \approx \frac{a-n^2}{2n} $$ Entonces la fórmula que buscamos es $$ \boxed{ \sqrt{a\;} \approx n + \frac{a-n^2}{2n} } $$ Por ejemplo si queremos calcular la raíz de $a=15$, tomamos $n=4$, ya que $4^2=16\approx 15$ y al usar la fórmula anterior, $$ \boldsymbol{3\mathrm{'}87}29833\dots = \sqrt{15\;} \approx 4 + \frac{15-4^2}{2\cdot 4} = 3\frac{7}{8} = \boldsymbol{3\mathrm{'}87}5 $$ Lo bueno de esta fórmula es que se puede usar de forma recursiva para ir encontrando sucesivas aproximaciones que tienden a la raíz: Ahora $n=3\mathrm{'}875$ y $n^2=15\mathrm{'}015625$ $$ \boldsymbol{3\mathrm{'}872983}3\dots = \sqrt{15\;} \approx 4 + \frac{15-3\mathrm{'}875^2}{2\cdot 3\mathrm{'}875} = 3\frac{433}{496} = \boldsymbol{3\mathrm{'}872983}8\dots $$
Otro ejemplo si queremos calcular la raíz de $a=2$, tomamos $n=1$, ya que $1^2=1\approx 2$ y al usar la fórmula anterior, $$ \boldsymbol{1}\mathrm{'}4142135\dots = \sqrt{2\;} \approx 1 + \frac{2-1^2}{2\cdot 1} = 3\frac{1}{2} = \boldsymbol{1}\mathrm{'}5 $$ Y en la siguiente iteración $n=1\mathrm{'}5$ y $n^2=2\mathrm{'}25$ $$ \boldsymbol{1\mathrm{'}41}42135\dots = \sqrt{2\;} \approx 4 + \frac{2-1\mathrm{'}5^2}{2\cdot 1\mathrm{'}5} = 1\frac{5}{12} = \boldsymbol{1\mathrm{'}41}\bar{6}\dots $$ Y en la siguiente iteración $n=1\mathrm{'}41\bar{6}$ y $n^2=2\mathrm{'}0069\bar{4}$ $$ \boldsymbol{1\mathrm{'}41421}35\dots = \sqrt{2\;} \approx 1\mathrm{'}41\bar{6} + \frac{2-1\mathrm{'}41\bar{6}^2}{2\cdot 1\mathrm{'}41\bar{6}} = 1\frac{169}{408} = \boldsymbol{1\mathrm{'}41421}56\dots $$ En general si queremos hallarla raíz $p-$ésima de un número $a$, $\sqrt[p]{a\;}$, tal que $a\approx n^p \iff n\approx\sqrt[p]{a\;}$ se puede hallar de forma similar con: $$ \boxed{ \sqrt[p]{a\;} \approx n + \frac{a-n^p}{p n^{p-1}} } $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.