viernes, 26 de abril de 2024

(991) - Comentarios sobre raíces de polinomios

En el día de hoy traemos algunos comentarios sobre raíces de polinomios, ya sean reales o complejas. Sentemos primero alguna notación, que para un polinomio con coefieciente principal $a_n\neq0$, y grado $n$, $\deg P = n$ : $$ P(z) = a_0 + a_1z+\cdots a_{n-1}z^{n-1}+a_nz^n=\sum_{i=0}^n a_iz^i $$ Su polinomio recíproco asociado a $P(z)$ se define como: $$ P^\mathrm{rec}(z) = \bar{a}_0z^n + \bar{a}_1z^{n-1}+\cdots \bar{a}_{n-1}z+\bar{a}_n=\sum_{i=0}^n \bar{a}_iz^{n-i}=z^n\,\overline{P\!\left(\frac{1}{\bar{z}}\right)} $$
  1. Un polinomio de grado impar con coeficientes reales tiene al menos una raíz real (Teorema de Bolzano).
  2. Un polinomio con coeficientes reales, si $z\in\mathbb{C}$ es solución, entonces si $\bar{z}\in\mathbb{C}$ también es solución, es decir, las raíces complejas aparecen en pares, siendo complejas conjugadas entre sí (Teorema de la raíz conjugada compleja).
  3. Un polinomio con coeficientes enteros, si tiene alguna raíz racional, será el cociente de algún divisor del término independiente entre algún divisor del coeficiente principal (Teorema de la raíz racional).
  4. Existen fórmulas cerradas para raíces de polinomios de grado $4$ o inferior, pero no existe una fórmula cerrada genérica con radicales para grado $5$ o superior, salvo en casos muy particulares como las quínticas de de Moivre. (Teorema de la imposibilidad de Abel-Ruffini).
    De hecho, las raíces de polinomios de grado $5$ Hermite demostró que se pueden expresar con funciones elípticas, mientras que el teorema de Saüch-Ruffini establece que hay algunas polinomios de grado $5$ cuyas raíces no se pueden expresar con radicales.
  5. Un polinomio con coeficientes en algún subconjunto de los complejos y de grado $n$ tiene $n$ raíces complejas (Teorema fundamental del álgebra).
  6. Los números trascendentes (como por ejemplo $\pi,e,\ln2$), por definición, no son raíces de polinios de grado finito con coeficientes racionales.
  7. Hay valores que acotan superiormente en módulo las raíces de un polinomio:
    • La cota de Lagrange es $\displaystyle \max\!\left(1,\frac{1}{|a_n|}\sum_{i=0}^{n-1}|a_i|\right)$.
    • La cota de Cauchy es $\displaystyle 1+\frac{1}{|a_n|}\max_{i=0}^{n-1}|a_i|$.
    • la cota de Lagrange-Zassenhaus es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n]{\left|\frac{a_0}{a_n}\right|}\right)$.
    • Otra cota debida a Lagrange es $\displaystyle \sum_{i=1\\a_i\neq0}^n \left|\frac{a_{i-1}}{a_i}\right|$.
    • la cota de Fujiwara es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n-1]{\left|\frac{a_1}{a_n}\right|},\sqrt[n]{\left|\frac{a_0}{2a_n}\right|}\right)$.
    • La cota de Kojima es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\cdots,\left|\frac{a_1}{a_2}\right|,\left|\frac{a_0}{2a_1}\right|\right)$ .
  8. Las raíces de la derivada de un polinomio están contenidas en la envolvente convexa de las raíces del polinomio primitivo (Teorema de Gauss-Lucas).
  9. Un polinomio con coeficientes reales, su número de raíces positivas del polinomio es o bien igual al número de cambios de signo de los coeficientes no-nulos o bien menor por una diferencia par (Criterio de los signos de Descartes).
  10. Para un polinomio real $P(x)$, el número de cambios de signo de $P(x+a)$ menos el número de cambios de signo de $P(x+b)$ (ambos en la base estándar) menos el número de raíces de $P(x)$ en $(a,b]$ es un número par no-negativo. (Teorema de Budan-Fourier).
  11. Al realizar la división euclídea de un polinomio entre su derivada, y evaluar la secuencia de polinomios en los extremos de un intervalo, el número de raíces reales (en dicho intervalo) es la diferencia del cambio de signos de las cadenas (Teorema de Sturm).
  12. Las raíces de un polinomio son los inversos de las raíces de su polinomio recíproco.
    Este resultado combinado con todos los anteriores puede hasta duplicar la información que tenemos sobre las raíces.



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 12 de abril de 2024

(983) - Cómo aproximar los ceros (las raíces) de una función. Métodos de Newton-Rhapson y Newton-Fourier

Supongamos que tenemos una función $f(x)$ dos veces derivable en un intervalo $[a,b]$, que tiene una raíz $\alpha\in[a,b]$, es decir $f(\alpha)=0$.Además suponemos que tanto la primera derivada, $f^{(1)}(x)$, como la segunda, $f^{(2)}(x)$, no se anulan en el intervalo $[a,b]$.

En el método de Newton-Rhapson suponemos que el extremo derecho del intervalo, $x_0=b$, es una buena estimación para la raíz (de hecho valdría otro punto del intervalo, pero tomaremos este por simplicidad). Se calcula la recta tangente a la función $f(x)$ en el punto $x=x_0$, es decir, $f(x_0) + f^{(1)}(x_0)\,(x-x_0)$, donde estamos despreciando términos de orden $\mathcal{O}\big((x-x_0)^2\big)$. Como la recta tangente a la función es una buena aproximación local a la función, calculamos el punto donde se anula la recta tangente, que lo llamamos $x_1$: $$ x_1 = x_0 - \frac{f(x_0)}{f^{(1)}(x_0)} $$ Si ahora iteramos esto con el punto $x_1$, se llega a otro punto $x_2$, y así sucesivamente se obtiene una sucesión $\{x_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Lo bueno de este método es que existe una constante $\displaystyle M=\frac{1}{2}\sup_{x\in[a,b]}\left\{\left|\frac{f^{(2)}(x)}{f^{(1)}(x)}\right|\right\}>0$ tal que $|x_{n+1}-\alpha|\leqslant M (x_n-\alpha)^2$, es decir, converge cuadráticamente, y donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-\alpha}{(x_n-\alpha)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

El método de Newton-Fourier en la iteración inicial considera el extremo izquierdo del intervalo, $z_0=a$, es una buena primera estimación. En vez de considerar la recta tangente, considera la recta paralela a la recta tangente del método de Newton-Raphson, es decir, con la pendiente $f^{(1)}(x_0)$, pero que pase por el punto $\big(z_0,f(z_0)\big)$, por lo que la ecuación de esta recta queda $f(z_0) + f^{(1)}(x_0)\,(x-z_0)$. Una vez más vemos donde se anula, que llamaremos $z_1$, dando: $$ z_1 = z_0 - \frac{f(z_0)}{f^{(1)}(x_0)} $$ Donde una vez más se puede crear una secuencia $\{z_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Es más, la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente decreciente, mientras que la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente creciente, ambas convergiendo a la raíz $\alpha$ de forma cuadrática, ya que existe una constante $K>0$ tal que $|x_{n+1}-z_{n+1}|\leqslant K (x_n-z_n)^2$ donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-z_{n+1}}{(x_n-z_n)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

Si reunimos toda la información $$ \left\{ \begin{matrix} x_{n+1} & = & \displaystyle x_n-\frac{f(x_n)}{f^{(1)}(x_n)} &\quad & x_0=b &\quad& x_n\downarrow\alpha \\ z_{n+1} & = & \displaystyle z_n-\frac{f(z_n)}{f^{(1)}(x_n)} &\quad & z_0=a &\quad& z_n\uparrow\alpha\\ \end{matrix} \right. \\ a = z_0 \lneq z_1 \lneq \cdots \lneq z_n \lneq \cdots \lneq \alpha \lneq \cdots \lneq x_n \lneq \cdots \lneq x_1 \lneq x_0 = b $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.