viernes, 13 de enero de 2023

(821) - Ley de Adán y Ley de Eva

Hoy vamos a explicar el porqué de estas dos fórmulas y su significado estadístico. Empecemos con la que dió nombre a todo esto. La ley de Eva, también llamada la Ley de la varianza total o de descomposición de la varianza. $$ \operatorname{var}(X) = \operatorname{E}\!\big(\operatorname{var}(X | Y)\big) + \operatorname{var}\!\big(\operatorname{E}(X | Y)\big) $$ Aunque también se suele expresar, para dejarlo más claro: $$ \operatorname{var}_X(X) = \operatorname{E}_Y\!\big(\operatorname{var}_X(X | Y)\big) + \operatorname{var}_Y\!\big(\operatorname{E}_X(X | Y)\big) $$ De aquí se puede ver el porqué del nombre de la ley de Eva (Eve's Law en inglés), ya que está la regla mnemotécnica EV-VE. Lo que dice esta fórmula es que dadas dos variable aleatorias $X,Y$ , la varianza de $X$ , $\operatorname{var}_X(X)$ , se puede escribir como la suma de las varianzas inexplicada y explicada:
  1. La varianza inexplicada es la esperanza en $Y$ de la varianza en $X$ del suceso que ocurra $X$ condicionado $Y$ , es decir, $\operatorname{E}_Y\!\big(\operatorname{var}_X(X | Y)\big)$. También se puede ver como el valor esperado de la varianza del proceso.
  2. La varianza explicada es la varianza en $Y$ de la esperanza en $X$ del suceso que ocurra $X$ condicionado $Y$ , es decir, $\operatorname{var}_Y\!\big(\operatorname{E}_X(X | Y)\big)$. También se puede ver como la varianza de la "media hipotética".
Mientras tanto, la Ley de Adán, o la ley de la esperanza total, dice que $$ \operatorname{E}(X) = \operatorname{E}\!\big(\operatorname{E}(X|Y)\big)$$ Una vez más la Ley de Adán es un juego de palabras: si la ley de Eva es la lay de la varianza total, la ley de Adán lo es de la esperanza total. Aunque también se suele expresar, para dejarlo más claro: $$ \operatorname{E}_X(X) = \operatorname{E}_Y\!\big(\operatorname{E}_X(X|Y)\big)$$ Lo que dice esta fórmula es que dadas dos variable aleatorias $X,Y$ , la esperanza de $X$ , $\operatorname{E}_X(X)$ se puede escribir como la esperanza en $Y$ de la esperanza en $X$ del suceso que ocurra $X$ condicionado $Y$, $\operatorname{E}_Y\!\big(\operatorname{E}_X(X|Y)\big)$ .

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 16 de diciembre de 2022

(811) - Catapultas, fundíbulos y trabuquetes. Ingeniería y PDE medievales

Supongamos que estás al servicio de un señor feudal entre los siglo XII y XIV, y en medio de una campaña llega la hora de asediar una ciudad amurallada. Para atacar la ciudadela lo mejor sería artillería, pero los cañones, si hay, son muy rudimentarios, y muy poco fiables. Aunque tu señor feudal tenga una clara superioridad numérica y logística, el sitio puede durar de semanas a meses, tiempo en el que el enemigo puede venir a levantar el asedio. La forma más efectiva de tomar la ciudad es de alguna manera hacer un boquete en la muralla enemiga y tomar la ciudad a la fuerza, pero, ¿cómo conseguirlo?

Ahí es donde entra en juego las catapultas, pero sobre todo los fundíbulos y los trabuquetes (hay unos vídeos muy interesantes en YouTube, sobre todo si se busca trechubet).

Los fundíbulos desplazan y rotan una piedra respecto de su eje de sujeción hasta soltarla por los aires para arrasar lo que encuentren por su paso. En esto presentan tres fases:
  1. La primera desde que se suelta el soporte activándose el fundíbulo.
  2. La segunda empieza cuando justo la cuerda unida a la piedra se tensa y comienza a deslizarse esta a lo largo del riel.
  3. La última comienza cuando la piedra, habiéndose desplazado por el riel, tiene suficiente momento, rota un ángulo de 120º-140º (dependiendo del "modelo"), instante en el que con suficiente impulso se manda una piedra rotando sobre so centro de masa, de varios cientos de quilogramos con una velocidad de varios quilómetros por hora.
Los fundíbulos presentan en cada una de las tres etapas un sistema no-lineal y no-homogéneo de ecuaciones diferenciales en derivadas parciales. Resolver analíticamente es prácticamente imposible, mientras que numéricamente puede ser un horror plantearlo y resolverlo computacionalmente. Horror, pero viable.
Aun así, es sorprente que en la Edad Media, sin calculadoras, derivadas, y sin algoritmos rápidos para la multiplicación, como la prostaféresis o los logaritmos (pincha en los enlaces para ver otros artículos al respecto), y solo con un ábaco, no solo tuviesen un conocimiento cualitativo bastante bueno, sino también uno cuantitativo.
Como curiosidad divulgativa, dejo un vídeo de cómo era la vide de un constructor y operador de fundíbulos: https://www.youtube.com/watch?v=HG8wt9alyag

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 2 de diciembre de 2022

(809) - ¿Qué es realmente la mediana?

Vamos a ver el concepto de mediana a distintos niveles de profundidad.
Media, moda y mediana. Esto nos enseñaban en el tema de estadística de matemáticas antes de entrar al instituto. Media es sumarlos todos y dividir entre el número de sumandos. Moda es el [elemento] que más se repite. Mediana es el [elemento] de en medio. Sin embargo, ¿qué significa esto? Tanto media y moda como mediana están entre el mínimo y el máximo de los elementos. Asimismo el de en medio puede ser poco intuitivo, por ejemplo $\{1,3,5,5,5\}$ tiene mediana $5$ , no $3$ como uno podría pensar al ser el de en medio en $\{1,3,5\}$ . Esto es un error recurrente: no se pueden eliminar los elementos repetidos.

La mediana de una lista $\{x_i\}_{i=1}^n$ se define como el ecuador de dicha lista, es decir, como el elemento que parte la lista en dos sublistas ordenadas de igual longitud: una con todos sus elementos menores o iguales que la mediana, mientras que la otra tiene todos sus elementos mayores o igual que la mediana. Para una distribución simétrica con una única moda (unimodal), la mediana coincide con la moda. Para calcular la mediana de una lista $\{x_i\}_{i=1}^n$ realmente se calcula la mediana de una lista equivalente: se reordenan los elementos de menor a mayor, que se denota son el subíndice entre paréntesis, $\{x_{(j)}\}_{j=1}^n$ $$ \overset{n}{\underset{i=1}{\operatorname{med}}}(x_i) = \overset{n}{\underset{j=1}{\operatorname{med}}}(x_{(j)}) \overset{\mathrm{def}}{=} \begin{cases} x_{(\ell+1)} & n = 2\ell+1 \\[2ex] \displaystyle \frac{x_{(\ell)}+x_{(\ell+1)}}{2} & n = 2\ell \\ \end{cases} $$ Si hay un número impar de elementos, $2\ell +1$ , se toma el elemento $(\ell+1)-$ésimo tal que hay $\ell$ elementos menores o igual que ese, y otros $\ell$ elementos mayores o igual que ese.
Si hay un número par de elementos, $2\ell $ , se tiene que tomar el elemento tal que haya $\ell$ elementos menores o igual que ese, y los otros $\ell$ elementos mayores o igual que ese, por lo que se hace la semisuma de los elementos $\ell-$ésimo y $(\ell+1)-$ésimo.

Desde un punto de vista analítico se puede ver como el argumento que minimiza la función $\rho$ , es decir, $\operatorname{med}(x_i) = \operatorname{arg\, min}(\rho)$ , siendo dicha función: $$ \rho(x) = \sum_{i=1}^n | x-x_i | = \sum_{j=1}^n \big| x-x_{(j)} \big| $$ También se puede ver que la mediana $m$ de una variable aleatoria $X$ es el valor de $c$ (argumento) que minimiza la función $\operatorname{E}(|X-c|)$ .

La mediana es un L-estimador (un estimador que es una combinación lineal de estadísticos de orden $k$ siendo estos el $k-$ésimo valor más pequeño de la muestra), por lo que se tiene la siguiente relación de afinidad: $$ \operatorname{med}(a\, x_i + b) = a\, \operatorname{med}(x_i) + b$$ Sin embargo , la mediana de la suma dos listas (o dos vectores) no es la suma de las medianas. Un ejemplo sería $(1,0,0)$ , con mediana $0$ , $(0,2,0)$ , con mediana también $0$ , mientras que la suma $(1,2,0)$ , tiene mediana $1$ , no satisfacen la desigualdad triangular ya que $ 1 \not\leqslant 0 + 0 $. Mientras que $(4,-8,6)$ , con mediana $4$ , $(-9,4,5)$ , con mediana también $4$ , mientras que la suma $(-5,-4,11)$ , tiene mediana $-4$ : se tiene $-4 \leqslant 4 + 4$ , es decir: $$ \operatorname{med}(x_i+y_i) \lesseqgtr \operatorname{med}(x_i) + \operatorname{med}(y_i)$$ La mediana es un caso muy particular de los cuantiles. Para un $p\in [0,1]$ se llama $p-$cuantiles a los valores que parten la muestra en sublistas de igual longitud que representan $p$ frente a la longitud total de la lista. Así pues se tiene (en frecuencia relativa) que el primer $p-$cuantil es mayor o igual que $p$ elementos respecto al total, y menor o igual que $(1-p)$ elementos respecto al total, el segundo $p-$cuantil es mayor o igual que $2p$ elementos respecto al total (y por ende mayor que el primer $p-$cuantil ), y menor o igual que $(1-2p)$ elementos respecto al total...
Cuando $p=0.25$ se conocen como cuartiles (de cuarto) y hay $3$ , mientras que el cuantil$-0.5$ es la mediana.

Cuando los elementos aparecen repetidos, o no todos los $x_i$ tienen la misma importancia, sino que cada uno tiene un peso de $\omega_i$ (y denotamos por $\omega_{(j)}$ es peso asociado a $x_{(j)}$ ) se tiene que la mediana es el elemento $x_k$ que satisface las siguientes desigualdades (aunque solo importan la primera y la última): $$ \sum_{j=1}^{k-1} \omega_{(j)} \leqslant \frac{1}{2} \qquad \sum_{j=1}^k \omega_{(j)} \geqslant \frac{1}{2} \qquad\qquad \sum_{j=k}^{n} \omega_{(j)} \geqslant \frac{1}{2} \qquad \sum_{j=k+1}^{n} \omega_{(j)} \leqslant \frac{1}{2} $$ Para una función de densidad de probabilidad $\operatorname{pdf}-X(x)$ de una variable aleatoria continua $X$ es el valor $m$ que satisface. $$ \int\limits_{(-\infty,m)}\!\! \operatorname{pdf}_X(x)\;\mathrm{d}x \geqslant \frac{1}{2} \qquad \int\limits_{(m,\infty)}\!\! \operatorname{pdf}_X(x)\;\mathrm{d}x \geqslant \frac{1}{2} $$ Volviendo al tema de media, moda y mediana, si denotamos como $\mu$ la media, $M$ la moda y $m$ la mediana con $\sigma$ la desviación típica tenemos la desigualdad: $ |\mu-m| \leqslant \sigma$ , y si la distribución es unimodal se tiene una desigualdad más estricta $\displaystyle |\mu-m| \leqslant \sqrt{\frac{3}{5}\;}\sigma$ , y además $|m-M| \leqslant \sqrt{3\;}\sigma$ . Además para distribuiones unimodales moderamente asimetricas se tiene la aproximación $\displaystyle \mu-M \approx 3(\mu-m) \iff m \approx \frac{2}{3}\mu + \frac{1}{3}M $ .

¿Existe una desigualdad tipo Jensen para la mediana? Sí, pero es ligeramente diferente. Tomemos $ f : A \to B $ con $A,B \subset \mathbb{R}$ y decimos que es función tipo $\mathcal{C}$ , $f\in\mathcal{C}(A,B)$ , si $\forall t\in B$ se tiene que $f^{[-1]}\big( \,(-\infty, t]\, \big) = \big\{ x \in \mathbb{R} \mid f(x) \leqslant t \big\}\subset A$ es un conjunto cerrado. Entonces se cumple $f\big(\operatorname{med}(X)\big) \leqslant \operatorname{med}\!\big(f(X)\big)$ . Un ejemplo de función tipo $\mathcal{C}$ son las convexas.

La mediana es muy útil, pero a veces muy costosa de calcular computacionalmente ya que hay que ordenar el conjunto para calcularla. Sin embargo, el matemático Tukey propuso en 1978 un estimador de la mediana que solo necesita hacer cuatro comprobaciones de tres elementos cada una: ninther ("novenero") . Sin embargo este estimador depende de cómo sea el conjunto $A$ , ya que dará otra estimación si permutan algunos elementos. Para un conjunto $A$ se subdivide en tres de igual longitud, en cada uno se hace la mediana del primer, el del medio y el último elemento, y el ninther es la mediana de estos tres, es decir: $$ a_1 = \operatorname{med}\!\big(A[1],A[n/6],A[n/3]\big) \quad a_2 = \operatorname{med}\!\big(A[n/3+1],A[n/2],A[2n/3]\big) \quad a_3 = \operatorname{med}\!\big(A[2n/3+1],A[5n/6],A[n]\big) \quad \operatorname{ninther}(A)=\operatorname{med}(a_1,a_2,a_3)$$ La mediana a veces también se utiliza en regresión: en mínimos cuadrados ordinarios (OLS por sus siglas en inglés) se minimiza la suma de los cuadrados de los residuales, mientras que en mínima mediana de cuadrados (LMS por sus siglas en inglés) se miniza la mediana de los cuadrados de los residuales. $$ \mathcal{Z}_{OLS} = \sum_{i=1}^n {e_i}^2 = \sum_{j=1}^n {e_{(j)}}^2 \qquad \mathcal{Z}_{LMS} = \overset{n}{\underset{i=1}{\operatorname{med}}}({e_i}^2) = \overset{n}{\underset{j=1}{\operatorname{med}}}({e_{(j)}}^2)$$ Sin embargo, como ya hemos comentado, a diferencia de OLS, está función no es una norma para $n\geqslant 3$.
Puntos $(x,y,z)\in\mathbb{R}^3$ tales que satisfacen $\operatorname{med}(x^2,y^2,z^2)=\operatorname{med}(|x|,|y|,|z|)=1$


 
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 18 de noviembre de 2022

(797) - Sobre el número π (pi)

Hoy \textit{no} es el día del número Pi. Pero me la refanfinfla. uwu $\pi \approx 3.14$ se puede definir de muchos modos. El más geométrico, consiste en decir que $\pi$ es el ratio de proporcionalidad entre el diámetro de una circunferencia y su perímetro. Pero yo prefiero definirlo de otra forma. Sea $\exp$ la única solución (holomorfa) de la siguiente ecuación diferencial: \[ \begin{cases} f \colon \mathbb{C} \to \mathbb{C}\\ f'(z)=z,\\ f(0)=1, \end{cases} \] Entonces, \[ \pi=-2\text{í} \min \{\ |z|\ \colon z\in\mathbb{C}\setminus\{0\},\ \exp(z) = 0 \} \] En la misma vena, la función $\operatorname{arc\,tg}$ permite definir $\pi$ como suma de una serie (la serie de Madhava-Gregory-Leibniz): \[ \pi=4 \sum_{n=1}^\infty \frac{(-1)^n}{2n+1} = 4-\frac{4}{3}+\frac{4}{5}-\ldots \] Esta serie converge bastante lento, lo cuál queda en evidencia por el lento decrecimiento del valor absoluto de sus sumandos. Converge más rápido esta otra: \[ \pi= 2\sum_{k=0}^\infty \frac{2^kk!^2}{(2k+1)!} = 2+\frac{2}{3}+\frac{4}{15}+\ldots \] La derivación de esta fórmula aparece en este enlace. Dejamos al lector la tarea de probar que esta serie converge estrictamente más rápido que la anterior (se debe precisar que es ``estrictamente más rápido'' y utilizar la fórmula de Stirling para probarlo). Comentar también que es una lectura muy interesante para cualquiera interesado en la aproximación computacional de $\pi$. owo Terminamos esta muy breve entrada con una conocida pero igualmente genial anécdota: en 1897, el Congreso del Estado de Indiana, EEUU votó unánimamente a favor de declarar por ley que: ``$\pi$ tiene dos valores: $3,2$ y $4$ '' Por suerte, el Senado del Estado de Indiana tumbó semejante estupidez. Para la historia completa, míralo aquí.

viernes, 4 de noviembre de 2022

(787) - Sobre el número e

El lector conocerá la definición de número irracional: \[ i \in \mathbb{R}\text{ es irracional } \Leftrightarrow \nexists p,q \in \mathbb{Z}\text{ tal que }i=\frac{p}{q}. \] Es trivial probar que $\sqrt{2}$ es irracional (de ahí su estatus de ejemplo estándar). Pero cuando nos salimos de los números algebraicos, la cosa ya no es tan sencilla. \phantom{meter un espacio así} Aquí nos fijaremos en el número $e$. Recordemos que \[ e=\sum_{k=0}^\infty \frac{1}{k!} = 1+1+\frac{1}{2!}+\frac{1}{3!}+\ldots \approx 2,718. \] Supongamos que $e$ fuera racional, $e=p/q$ donde $p$ y $q$ no comparten factores primos. Llamemos $\displaystyle S_n=\sum_{k=0}^n \frac{1}{k!}$ a las sumas parciales. Se pueden dar dos casos:
  • que $e=S_n$ para cierto $n$.
  • que $e \neq S_n$ para ningún $n$.
El primer caso es obvio que no va a ser. Para estudiar el segundo caso, \mbox{consideremos} el resto $e-S_n$: \begin{align*} e-\sum_{k=0}^n \frac{1}{k!} &= \frac{1}{(n+1)!}\left( 1 + \frac{1}{n+2} + \frac{1}{(n+2)(n+3)}+\ldots \right)\\ &\leqslant \frac{1}{(n+1)!}\left( 1 + \frac{1}{n+2} + \frac{1}{(n+2)^2}+\ldots \right)\\ &\leqslant \frac{1}{(n+1)!}\left( 1 + \frac{1}{n+1} + \frac{1}{(n+1)^2}+\ldots \right) = (\#) \end{align*} Ahora bien, $\displaystyle \left(1+\frac{1}{n+1}+\frac{1}{(n+1)^2}+\ldots\right)$ es una serie geométrica. Por tanto \[ (\#)=\frac{1}{(n+1)!}\frac{1}{1-\frac{1}{n+1}}=\frac{1}{(n+1)!}\frac{n+1}{n}=\frac{1}{n}\frac{1}{n!}. \] Si $e$ fuera racional, entonces $r=e-S_n$ también sería racional. Pero la cuenta anterior nos dice que \[ e-S_n \leqslant \frac{1}{n}\frac{1}{n!} \xrightarrow[\substack{n\to\infty}]{} 0, \] lo que implica que $r=0$, absurdo. está mal hecho, pero son las 5 de la mañana
Probar que $e$ es trascendente (es decir, no algebraico) es poco trivial (enlace). Un poco más fácil es probar que $\pi$ es irracional (enlace). Por último, probar que $\pi$ es trascendente es aún más interesante (léase, complicado).

viernes, 21 de octubre de 2022

(773) - Caos deterministíco. No podemos predecir el futuro, ni saber el pasado

En Occidente tenemos la noción de representarnos mirando hacia el futuro, y de espaldas al pasado, pues tenemos la percepción de que el pasado lo hemos dejado atrás y estamos yendo hacia el futuro. Sin embargo, en algunas culturas como la aymara en los Andes pasado y delante tienen la misma palabra (nayra), y futuro y espaldas comparten otra (quipa), ya que según su cosmovisión el pasado, al haberlo vivido y experimentado lo conocemos bien, mientras que el futuro al ser el porvenir, no. Los antiguos germanos, los romanos tenían parte de esta filosofía en sus lenguas (en especial en algunos prefijos temporales que originalmente eran locales), así como en vasco.

En $1814$ Laplace publica «Ensayo filosófico sobre las probabilidades» (Essai philosophique sur les probabilités) donde propone la idea de lo que acabaría conocienco como el demonio de Laplace, un intelecto superior. El término demonio quizá no es el más acertado, originalmente es del griego antiguo pero con otro significado: δαίμων - daímōn «divinidad, genio, espíritu protector». Laplace argumentaba que dado que las ecuaciones que rigen la mecánica clásica con puramente deterministas, dadas unas condiciones iniciales, es posible saber el estado del sistema en cualquier momento a futuro. Es más, como a su vez las ecuaciones se pueden utilizar a pasado, es decir, no hay preferencia temporal, dadas las mismas condiciones iniciales es posible saber de qué estado proviene el sistema.
Esto es bastante sorprendente, porque si bien una instantánea de las posiciones de un sistema nos dice momentáneamente cómo es dicho sistema, podemos averiguar de qué estado venía y cómo va evolucionar.

Sin embargo, a pesar de que Laplace no tuvo en cuenta que su idea no es siempre aplicable por efectos cuánticos - que él desconocía - no tuvo en cuenta el caos. Llamamos caos en matemáticas al grado de sensibilidad de las condiciones iniciales, es decir, cómo varía el sistema si comienza con unas condiciones iniciales similares pero no idénticas (tras una perturbación diferencial). Muchos sistemas dinámicos son caóticos como el problema de los $N$ cuerpos - cuyo mejor ejemplo es el Sistema Solar - , el movimiento del péndulo doble entre otros. En ambos casos, dado una situación inicial es posible saber en todo momento cómo evoluciona el sistema, pero si se varían ligeramente las condiciones iniciales, para un mismo instante ambos sistemas con categóricamente diferentes.
La incertidumbre en el conocimiento "profundo del sistema" (la precisión de los datos) en un instante inicial (presente), nos imposibilita asegurar a futuro con plena certeza el estado del sistema en cualquier momento, en especial cuanto más separado esté del presente. Por ello a la par que se va resolviendo las ecuaciones diferenciales que presenta el sistema hay que ir comprobando empíricamente cómo está el sistema.

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 19 de mayo de 2022

(769) - Expresiones para soluciones de ecuaciones diferenciales. ¿Existen o se crean?

Poco antes de verano estaba con un amigo del doble grado y redactor de este blog hablando de ecuaciones diferenciales y salieron dos ejemplos en particular: la del péndulo realista, $y^{\prime\prime}+\beta\,y^\prime+{\omega_0}^2\sin(y)=0$ (con amortiguamiento/fricción y sin aproximaciones de ángulo pequeño), y el sistema de Lotka-Volterra: $\displaystyle \begin{cases} x^\prime & = & x(\alpha-\beta y) \\ y^\prime & = & -y(\gamma-\delta x) \end{cases}$ . Él me preguntó que si acaso tenían solución, y yo le dije que sí, que se podían construir. Él realmente no me inquirió en si eran resolubles (ya fueren analítica o numéricamente), sino si existía alguna función conocida, que pudiese ser composición y/o combinación de otras funciones elementales o no (por ejemplo) tal que fuese solución suya, es decir, si se podía expresar su solución en términos de funciones conocidas. Él se quejó de mi respuesta, a lo que yo le dije que realmente eso poco importaba a la hora de resolver ecuaciones diferenciales y al estudiarlas. A veces la propia solución puede ser tan engorrosa analíticamente que es reconfortante pensar que siempre nos quedará el cálculo numérico...

Por ejemplo, tomemos la función error gaussiano, una función no-elemental, que se define como: $\displaystyle \operatorname{erf}(x)\overset{\text{def}}{=}\frac{2}{\sqrt{\pi\;}}\int_0^x e^{-t^2}\;\text{d}t$ . Resolvamos la ecuación diferencial ordinaria de I orden $y^\prime = e^{-x^2}$ . Ahora bien, ¿la solución de esta ecuación diferencial es debida a dicha definición anterior, tal que $\displaystyle y\triangleq\frac{\sqrt{\pi\;}}{2}\operatorname{erf}(x)+y_0$ , o bien la definición anterior se dio para que satisficiere la ecuación diferencial $y^\prime = e^{-x^2}$ ?, es decir, ¿qué vino antes: la definición (y después la ecuación diferencial que resulta ser que la tiene como solución salvo constantes) o la ecuación diferencial (y la definición se dio posteriormente como su solución a este problema)?

Sin la definición de $\operatorname{erf}(x)$, el problema es irresoluble analíticamente, pero con dicha definición es trivial, ya que la propia definición es la solución. Es como si hubiésemos definido que esta función sea su solución. Es equivalente a construir la solución, y darla como definición, por lo que el problema ya está resuelto.

Esto puede parecer una tontería, o un poco enrevesado, pero si se quiere resolver $y^\prime = 3x^2$ , que tiene como solución $y=x^3+y_0$ , no se requiere de ninguna definición previa que no esté contemplada ya.

Uno siempre puede decir: Sea $y\overset{\text{def}}{=}\theta(t)=\theta(t|\beta,\omega_0;y_0,{y_0}^\prime)$ la solución a la ecuación diferencial $y^{\prime\prime}+\beta\,y^\prime+{\omega_0}^2\sin(y)=0$ en la variable $t$ donde $\beta,\omega_0\geqslant 0$ son parámetros que dependen de la ecuación diferencial, con $y_0,{y_0}^\prime$ como condiciones iniciales (hay soluciones analíticas si se linealiza o si al menos uno de los parámetros se anula, aunque con $\beta=0$ es enrevesada). Después mediante cálculo y análisis numéricos, con un conocimiento previo de ecuaciones diferenciales, uno puede estudiar la solución numéricamente, y a veces a lo sumo, hasta cierto punto analíticamente.

Otro ejemplo puede ser el oscilador de Van der Pol: $y^{\prime\prime}-\mu(1-y^2)y^\prime+{\omega_0}^2y=0$ (nótese que el caso $\mu=0$ es el oscilador armónico simple, por lo que sí tiene una solución analítica en este caso), otra vez ahí definir $y\overset{\text{def}}{=}\operatorname{vdp}(t)=\operatorname{vdp}(t|\mu,\omega_0;y_0,{y_0}^\prime)$ como una solución obtenida numéricamente y a partir de ella estudiar la solución "analítica".

Lo que estoy argumentando es equivalente a si un matemático en el $\text{siglo XVI-XVII}$, desconociendo tanto el número $e$ como las funciones exponencial $e^x$ y logaritmo $\ln(x)$ , decidiese analizar la ecuación diferencial ordinaria de primer orden $y^\prime=k\, y$ definiendo su solución como $y\overset{\text{def}}{=}\operatorname{sol}(t) = \operatorname{sol}(t|k;y_0)$ y estudiarla a partir de su solución construida. Hoy sabemos que tiene una forma cerrada, $y=y_0\, e^{k(t-t_0)}$ .

Uno puede incluso argumentar que estos ejemplos están sesgados y que no tienen validez, pero no es así, hay muchas ecuaciones diferenciales que no tienen necesariamente una solución analítica y para entenderlas es necesario su estudio con cálculo numérico y definir sus soluciones. En especial, en física, como dijo Steven Strogatz ($1959-$): "Desde Newton, la humanidad se ha dado cuenta que las leyes de la física siempre se expresan en la lengua de ecuaciones diferenciales." Veamos algunos ejemplos:

El sistema de $2$ ecuaciones diferenciales ordinarias de II orden que rigen el péndulo doble $$ \begin{cases} \ddot{\theta}_1 & = & \displaystyle \frac{-g (2m_1+m_2)\sin(\theta_1)-m_2g\sin(\theta_1-2\theta_2)-2\sin(\theta_1-\theta_2)m_2\big({\dot{\theta_2}}^2 l_2+{\dot{\theta_1}}^2 l_1\cos(\theta_1-\theta_2)\big)} {l_1\big(2m_1+m_2-m_2\cos(2\theta_1-2\theta_2)\big)} \\ \ddot{\theta}_2 & = & \displaystyle \frac{2 \sin(\theta_1-\theta_2) \big({\dot{\theta}_1}^2 l_1 (m_1 + m_2)+ g(m_1 + m_2) \cos(\theta_1) + {\dot{\theta}_2}^2 l_2 m_2 \cos(\theta_1 - \theta_2)\big)} {l_2 \big(2 m_1 + m_2 - m_2 \cos(2 \theta_1 - 2 \theta_2)\big)} \end{cases} $$ El sistema de $2$ ecuaciones diferenciales ordinarias de II orden que rigen el péndulo elástico $$ \begin{cases} \ddot{r} & = & \displaystyle (r+l_0)\dot{\theta}^2 -\frac{k}{m}r + g\cos(\theta) \\ \ddot{\theta} & = & \displaystyle -\frac{g\sin(\theta)+2\dot{r}\dot{\theta}}{r+l_0} \end{cases} $$ La ecuación diferencial ordinaria de II orden que rige el péndulo esférico $$ \ddot{\theta}(t)- \left(\frac{p_\varphi}{ml^2}\right)^2\frac{\cos\big(\theta(t)\big)}{\sin^3\big(\theta(t)\big)}+\frac{g}{l}\sin\big(\theta(t)\big) = 0 $$ El sistema de $6$ ecuaciones diferenciales ordinarias de II orden que rigen el problema de los dos cuerpos $$ \begin{cases} \ddot{\vec{r}}_1 & = &\displaystyle Gm_2 \frac{\vec{r}_2-\vec{r}_1}{{\|\vec{r}_2-\vec{r}_1\|_2}^3}\\ \ddot{\vec{r}}_2 & = &\displaystyle Gm_1 \frac{\vec{r}_1-\vec{r}_2}{{\|\vec{r}_1-\vec{r}_2\|_2}^3} \end{cases} \implies m_1\ddot{\vec{r}}_1 + m_2\ddot{\vec{r}}_2 = \vec{0} $$ El sistema de $3$ ecuaciones diferenciales ordinarias de I orden conocido como el atractor de Lorentz, un ejemplo famoso de la Teoría del Caos: $$ \begin{cases} \dot{x} & = & \sigma (y-x) \\ \dot{y} & = & x (\rho-z)-y \\ \dot{z} & = & xy-\beta z \end{cases} $$
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.