domingo, 20 de diciembre de 2020

(641) - Ya conoces a gente que morirá el mismo día que tú. Paradoja del cumpleaños

Supongamos que entras en una aula para hacer un examen (por ejemplo). Puedo asegurarte, con probabilidad de al menos $50\text{'}73\%$ si hay siquiera $23$ personas, que dos de ellos morirán el mismo día. No es necesario saber nada más sobre las personas, pero podemos afirmar que dos morirán el mismo día del año.

Uno podría pensar que para que la probabilidad fuese del $50\%$ sería necesario que hubiese al menos tantas personas como la mitad de días del año, es decir, al menos $183$ personas. Sin embargo con $183$ personas la probabilidad es de $99\text{'}999999999999999998\cdots \%$ , o sea, la probabilidad de que no ocurriese sería de aproximadamente de $3$ entre $200 \text{ trillones } (1\text{'}53\cdot 10^{-20})$ . Recordemos que un trillón es un $1$ seguido de dieciocho $0$ .

En ningún momento estamos seleccionando una persona en particular y preguntado cuántas personas más tendría que haber en el aula para que ambos muriesen el mismo día. Ese es otro problema diferente, en el que se fija a una persona y se va comprobando con el resto. En este caso necesitaríamos $253$ personas , que es aproximadamente $-365\cdot\ln(1-0\text{'}5)$ , para tener una probabilidad del $50\text{'}02\%$ .

Estos resultados casi paradójicos muchas veces se suelen plantear en términos de cumpleaños, es decir:

¿Cuántas personas tiene que haber en una habitación para que al menos dos de ellas cumplan el mismo día con una probabilidad mínima dada?

¿Cuántas personas se necesitarían para que podamos afirmar, con una confianza dada, que otro individuo cumple el mismo día que tú? 

Esta paradoja y problema de probabilidad-estadística se puele plantear no solo en términos de cumpleaños, sino también preguntando qué probabilidad hay de que dos personas adopten a su mascota el mismo día, qué probabilidad hay que en un grupo de amigos dos se hayan sacado el carné de conducir el mismo día, dos parejas se hayan casado el mismo día, ... o como lo hemos planteado desde aquí, cuál es la probabilidad de que dos personas mueran el mismo día. 
Una aurea dicta romana decía mors certa, [sed] hōra incerta: «la muerte es cierta, [pero] la hora, incierta» (entendiendo hora como el momento, el entonces). Al plantear la paradoja de este modo podemos ver de una forma mucho más determinista algo casi azarosamente aleatorio: la hora de nuestra muerte.

He aquí algunos enlaces de cómo se suele plantear este problema explicados por MatesMike y por Derivando.

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 17 de diciembre de 2020

(631) - GIFs descargables: Integrales de Darboux, y de Riemann

Si bien es cierto que los dibujos no demuestran nada, como bien dice el refrán: una imagen dice más de $1.000$ palabras. Por ello he hecho estos GIFs animados que ayudan a entender visualmente las integrales de Darboux, y de Riemann. Definamos los subintervalos de la partición $I_k \overset{\text{def}}{=} [x_{k-1},x_k] \in\mathcal{P}\big([a,b]\big)$ .
Integral de Daboux
La suma inferior de Darboux, $s(f,\mathcal{P}_n)$ , hace referencia a la suma de las áreas de los rectángulos-verticales maximales que están contenidos entre el eje de abscisas y la función $f$ , mientras que la suma superior de Darboux, $S(f,\mathcal{P}_n)$ , hace referencia a la suma de las áreas de los rectángulos-verticales minimales que contienen en su interior la función $f$ . Según se aumenta el número de subintervalos $n$ , mejor se aproxima al valor del área bajo la función $f$ . $$ \begin{matrix}\displaystyle s(f,\mathcal{P}_n) \overset{\text{def}}{=} \sum_{k=1}^n \inf_{x\in I_k}\!\big\{f(x)\big\} \Delta x_k &\quad & \displaystyle S(f,\mathcal{P}_n) \overset{\text{def}}{=} \sum_{k=1}^n \sup_{ x\in I_k}\!\big\{f(x)\big\} \Delta x_k \\\displaystyle \mkern2.5mu\underline{\vphantom{\intop}\mkern15mu}\mkern-15mu\int_a^b \!\!\! f(x) \,\text{d}x \overset{\text{def}}{=} \sup_{\mathcal{P}_n\,\in\,\mathcal{P}}\!\big\{s(f,\mathcal{P}_n)\big\} &\quad &  \displaystyle \mkern2.5mu\overline{\vphantom{\intop}\mkern15mu}\mkern-20mu\int_a^b \!\!\! f(x) \,\text{d}x \overset{\text{def}}{=} \inf_{\mathcal{P}_n\,\in\,\mathcal{P}}\!\big\{S(f,\mathcal{P}_n)\big\} \\ \end{matrix} $$

Integral de Riemann
La suma asociada de Riemann, $\sigma(f,\mathcal{P}_n,T)$ , es la suma de las áreas de los rectángulos-verticales que aproximan la función $f$ en cada subintervalo $I_k$ , es decir, en cada subintervalo $I_k$ se considera un nodo $t_k$ tal que el valor de la función $f$ en dicho nodo, $f(t_k)$, sea una buena aproximación de la altura media de la función en dicho subintervalo. Según se aumenta el número de subintervalos $n$ , mejor se aproxima al valor del área bajo la función $f$ . $$ \begin{matrix} \displaystyle \sigma(f,\mathcal{P}_n,T) \overset{\text{def}}{=} \sum_{k=1}^n f(t_k)\Delta x_k \quad\displaystyle \int_a^b f(x) \,\text{d}x \overset{\text{def}}{=} \lim_{\|\mathcal{P}_n\hspace{1pt}\|\to 0}\!\!\! \sigma(f,\mathcal{P}_n,T) \\ \displaystyle \sigma(f,\dot{\mathcal{P}}_n) \overset{\text{def}}{=} \sum_{k=1}^n f(t_k)\Delta x_k \quad\displaystyle \int_a^b f(x) \,\text{d}x \overset{\text{def}}{=} \lim_{\|\dot{\mathcal{P}}_n\hspace{1pt}\|\to 0}\!\!\! \sigma(f,\dot{\mathcal{P}}_n) \end{matrix} $$


Integral de Riemann - variando los nodos
Aquí vemos variando el nodo $t_k$ en cada subintervalo $I_k$ (tomando cada uno con la misma definición respecto a los extremos del subintervalo). Así pues pasamos de una suma de Riemann por la izquierda ( $\lambda=0$ ) a una del punto medio ( $\lambda=0.5$ ) y finalmente a una por la derecha ( $\lambda=1$ ). $$ \lambda_k\in[0,1] \,/\, t_k \overset{\text{def}}{=} (1-\lambda_k)x_{k-1}+\lambda_k x_k\in I_k \in \mathcal{P}_n\big([a,b]\big) \\ \sigma(f,\dot{\mathcal{P}}_n) = \sum_{k=1}^n f\big((1-\lambda)x_{k-1}+\lambda x_k\big) \Delta x_k $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

sábado, 21 de noviembre de 2020

(619) - Integral de Riemann (Origen de la idea) Teorema del Valor Medio de Lagrange (con GIFs descargables)

El teorema del valor medio de Lagrange (en su formulación con integrales) nos asegura que dado una función $f$ integrable en un intervalo $[a,b]$ , existe un punto intermedio $\eta$ al intervalo tal que $f(\eta)$ es la altura promedio de la función $f$ , es decir, que $f(x)$ y $f(\eta)$ tienen la misma integral en $[a,b]$ : \begin{align*}
\int_a^b\!\!f(x) \text{d}x & = \int_a^b\!\!f(\eta) \text{d}x \\ & = f(\eta)(b-a)
\end{align*}
Si en vez de considerar todo el intervalo $[a,b]$, consideramos un subintervalo $[x_{k-1},x_k]$ , entonces pasamos a tener un punto intermedio $\eta_k$ , y el resultado sigue siendo válido: \begin{align*} \int_{x_{k-1}}^{x_k}\!\!f(x) \text{d}x & = \int_{x_{k-1}}^{x_k}\!\!f(\eta_k) \text{d}x \\
& = f(\eta_k)(x_k-x_{k-1}) \\
& = f(\eta_k){\Delta x}_k
\end{align*} Si ahora sumamos todos los resultados para cada uno de estos subintervalos $[x_{k-1},x_k]$ , y sabiendo que $\displaystyle \int_a^b\!\!f(x) \text{d}x = \sum_{k=1}^n \int_{x_{k-1}}^{x_k}\!\!f(x) \text{d}x $ , entonces tenemos: \begin{align*}
\int_a^b\!\!f(x) \text{d}x & = \sum_{k=1}^n \int_{x_{k-1}}^{x_k}\!\!f(\eta_k) \text{d}x \\
& = \sum_{k=1}^n f(\eta_k)(x_k-x_{k-1}) \\
& = \sum_{k=1}^n f(\eta_k){\Delta x}_k \\
\end{align*}Así pues, si queremos hallar el valor de la integral $\displaystyle \int_a^b f $ , esto se reduce a hallar el correspondiente $\eta_k$ (o en su defecto $f(\eta_k)$ ) para cada uno de los $n$ subintervalos $[x_{k-1},x_k]$ . Sin embargo, esta tarea no es especialmente trivial, ya que muchas veces implica resolver dicha integral para luego hallar o bien $\eta_k$ o bien $f(\eta_k)$ . Empero podemos encontrar una familia $T$ de puntos intermedios asociados $t_k\in[x_{k-1},x_k]$ tal que cada uno de los $t_k$ esté suficientemente "cerca" de $\eta_k$ , y que sendos valores ( $f(t_k)$ y $f(\eta_k)$ respectivamente) no sean muy diferentes, a lo sumo una cantidad $\varepsilon_k$ :
$$ \forall \delta_k \gneq 0 \, , \, \exists t_k \in B(\eta_k, \delta_k) \,\big/\, 0\leqslant \big|f(\eta_k)-f(t_k)\big|\lneq \varepsilon_k \leqslant \max_{k=1}^n\big(\varepsilon_k\big) \overset{\text{def}}{=:} \varepsilon $$ Con todo esto podemos hallar una suma de áreas, que llamaremos suma asociada de Riemann $\sigma(f,\mathcal{P}_n,T)$ , tal que se aproxime suficientemente bien al valor de la integral $\displaystyle \int_a^b f $ , y que difieran como muchísimo $\displaystyle \max_{k=1}^n\big(\varepsilon_k\big)(b-a)$ : $$ \begin{array}{ccccc}
0 & \leqslant & \big|f(\eta_k)-f(t_k)\big| & \lneq &\varepsilon \\
-\varepsilon &\lneq & f(\eta_k)-f(t_k) & \lneq & \varepsilon \\
-\varepsilon{\Delta x}_k &\lneq & f(\eta_k){\Delta x}_k-f(t_k){\Delta x}_k & \lneq & \varepsilon{\Delta x}_k\\
\displaystyle \sum_{k=1}^n-\varepsilon{\Delta x}_k &\lneq & \displaystyle \sum_{k=1}^n f(\eta_k){\Delta x}_k-\sum_{k=1}^n f(t_k){\Delta x}_k & \lneq & \displaystyle \sum_{k=1}^n \varepsilon{\Delta x}_k\\
-\varepsilon(b-a) &\lneq & \displaystyle \int_a^b\hspace{-3mm}f -\sigma(f,\mathcal{P}_n,T) & \lneq &\varepsilon(b-a) \\
0 &\leqslant & \displaystyle \Bigg| \int_a^b\hspace{-3mm}f -\sigma(f,\mathcal{P}_n,T) \Bigg| & \lneq &\varepsilon(b-a) \\
\end{array} $$ En este GIF animado podemos observar cómo variando el número $n$ de subintervalos $[x_{k-1},x_k]$ se aproxima mejor el valor de la integral.


En este GIF animado podemos observar cómo variando la familia $T$ de puntos intermedios asociados varía la aproximación a la integral.


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

martes, 3 de noviembre de 2020

(617) - Trigonometría Racional. Una reformulación curiosa

Empecemos diciendo esto qué no es: no es un artículo sobre trigonometría cuyos ángulos, o cuyos valores sean números racionales (para eso habrá que esperar a la entrada del Teorema de Niven-Hadwiger), sino de una reformulación más "racional" (en el sentido estricto), más lógica de la trigonometría. 

El canadiense Norman J. Wildberger, profesor de matemáticas en la Universidad de Nueva Gales del Sur (Australia), se propuso hacer esta reformulación que terminó $\text{a.}2005$ con la publicación de su libro (enlace), y que luego fue relatando en una serie de vídeos de su canal de Youtube (enlace). 

En vez de tratar con ángulos, distancias a modo de catetos opuesto, y adyacente, o hipotenusa, o algunos ratios, se utilizan los términos cuadranza, extensión, y cruce (en menor medida). 
· Cuadranza (quadrance), $Q$ : Reemplaza el concepto de distancia. Mide el área del cuadrado dados dos de sus vértices, es decir, mide el cuadrado de la distancia, $d^2$ . Los griegos muchas veces, como en el teorema de Pitágoras, hablaban más de áreas que de longitudes.
· Extensión (spread) , $s$ : Reemplaza el concepto de ángulo. Mide la ratio entre la cuadranza ascendida entre la cuadranza recorrida, es decir, mide el cuadrado del seno, $\sin^2(\theta)$ . 
· Cruce (cross), $1-s$ : Es el complementario a la extensión, es decir, mide el cuadrado del coseno, $\cos^2(\theta)\triangleq 1-\sin^2(\theta)$ . 

Triángulo trigonométrico racional

 

Muchas de los resultados clásicos tienen sus análogos en este reformulación, veamos algunos ejemplos:  
$$ \begin{matrix} 
\text{Teorema de Pitágoras} & a^2 = b^2 + c^2 &\qquad& Q_1 = Q_2 + Q_3 \\ 
\text{Teorema del seno} & \displaystyle \frac{a}{\sin(\alpha)}=\frac{b}{\sin(\beta)}=\frac{c}{\sin(\gamma)} & \qquad & \displaystyle \frac{Q_1}{s_1}=\frac{Q_2}{s_2}=\frac{Q_3}{s_3} \\ 
\text{Teorema del coseno} & \displaystyle -a^2+b^2+c^2 = 2bc\cos(\alpha) &\qquad& (-Q_1+Q_2+Q_3)^2 = 4Q_2Q_3(1-s_1) \end{matrix} $$

Caben resaltar dos fórmulas más:
$$ (Q_1+Q_2+Q_3)^2=2\big({Q_1}^2+{Q_2}^2+{Q_3}^2\big) \qquad (s_1+s_2+s_3)^2=2\big({s_1}^2+{s_2}^2+{s_3}^2\big)+4s_1s_2s_3 $$

Casi todas estas relaciones se pueden obtener partiendo de las relaciones clásicas y modificándolas hasta alcanzar una expresada en los términos deseados. Cabe resaltar a su vez que la trigonometría racional a veces hace uso de relaciones de cuadrados a los que Euclides les dedica algunas proposiciones en su obra magna Los Elementos, como por ejemplo:
$$ (a+b)^2 + (a-b)^2 = 2(a^2+b^2) \qquad (a+b)^2 - (a-b)^2 = 4ab $$
O haciendo uso de la Identidad de Brahmagupta-Fibonacci/de Diofanto:
$$ (a_2b_1-a_1b_2)^2+(a_1a_2+b_1b_2)^2=\big({a_1}^2+{b_1}^2\big)\big({a_2}^2+{b_2}^2\big) $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

(613) - Valor principal de Cauchy. Integrando al límite y al infinito

Aclaremos una cosa: esta entrada no trata el problema del valor inicial de Cauchy para ecuaciones diferenciales (en el que se halla la única solución a una ecuación diferencial dada una condición inicial concreta).

Supongamos que tenemos una función $f(x)$ de la que queremos hallar su integral en el intervalo $[a,b]$ (realmente da igual si es abierto o cerrado). Sin embargo, esta función no es continua en todo el intervalo, sino que tiene una discontinuidad en algún punto intermedio $\xi\in[a,b]$ .
  • Si fuera una discontinuidad evitable, es decir, si $\displaystyle \lim_{x\to\xi^{-}} f(x) = \lim_{x\to\xi^{+}} f(x) \not = f(\xi) $, entonces la integral sería: $\displaystyle \int_a^b \hspace{-5pt} f = \int_a^{\to\xi^{-}} \hspace{-8pt} f+ \int_{\to\xi^{+}}^b \hspace{-3.5pt} f $ .
  • Si fuera una discontinuidad inevitable de salto finito ( $\displaystyle \lim_{x\to\xi^{-}} f(x) - \lim_{x\to\xi^{+}} f(x)\lneq\infty$ ), es decir, si $\displaystyle \lim_{x\to\xi^{-}} f(x) \not = \lim_{x\to\xi^{+}} f(x) $, entonces la integral sería: o bien $\displaystyle \int_a^b \hspace{-5pt} f = \int_a^{\to\xi^{-}} \hspace{-8pt} f + \int_\xi^b \hspace{-6pt} f $ (si $\displaystyle \lim_{x\to\xi^{+}} f(x) = f(\xi) $ ), o bien $\displaystyle \int_a^b \hspace{-5pt} f = \int_a^\xi \hspace{-6pt} f + \int_{\to\xi^{+}}^b \hspace{-3.5pt} f $ (si $\displaystyle \lim_{x\to\xi^{-}} f(x) = f(\xi) $ ).
  • Si fuera una discontinuidad inevitable de salto infinito ( $\displaystyle |\lim_{x\to\xi^{-}} f(x) - \lim_{x\to\xi^{+}} f(x)| = \infty$ ) es decir, si $\displaystyle \lim_{x\to\xi^{-}} f(x) = \pm\infty = \lim_{x\to\xi^{+}} f(x) $ [particularizando al caso que queremos estudiar], entonces la integral numérica no tendría del todo sentido siempre: 
    1. Si ambos límites laterales convergen en valor absoluto a infinito y tienen el mismo signo, la integral numérica da $\pm\infty$ . 
    2. Sin embargo, si ambos convergen en valor absoluto a infinito, pero tienen distinto signo, uno podría preguntarse cómo calcular [numéricamente] el valor de la integral. La respuesta es a través de un límite: 
$$\boxed{ ―\hspace{-11.5pt}\int_a^b \hspace{-5pt} f \overset{\text{def}}{=} \lim_{\varepsilon\to 0^{+}} \Bigg( \int_a^{\xi-\varepsilon}\hspace{-5pt} f + \int_{\xi+\varepsilon}^b \hspace{-5pt} f \Bigg) }$$ 
Nótese que se está evaluando la integral en $[a,b]\setminus[\xi-\varepsilon,\xi+\varepsilon] \triangleq [a,\xi-\varepsilon) \cup (\xi+\varepsilon,b] $, y por las propiedades de la integración, la integral en ese subintervalo (bajo ciertas condiciones), $\displaystyle \int_{\xi-\varepsilon}^{\xi+\varepsilon}\hspace{-5pt} f = 2\varepsilon\cdot f(\eta) \!\underset{\varepsilon\to 0}{\longrightarrow}\! 0 $ donde $\eta\in (\xi-\varepsilon,\xi+\varepsilon)$ .
Con la definición del valor principal de Cauchy, uno puede dar un resultado numérico a integrales tipo: $ \displaystyle ―\hspace{-11.5pt}\int_{-1}^2 \frac{1}{x} \text{d}x = \ln 2 $ , o puede incluso definir funciones más difíciles como la integral logarítmica (de la que hablaremos más adelante): $$ \displaystyle \operatorname{li}(x) \overset{\text{def}}{=} ―\hspace{-11.5pt}\int_0^x \frac{1}{\ln(t)} \text{d}t $$
El valor principal de Cauchy es una generalización para ciertas integrales numéricas que sigue abarcando los casos más simples.
En cuanto a notación el valor principal de Cauchy se denota como $\displaystyle ―\hspace{-11.5pt}\int$ que corresponde al comando \fint en LaTeX , y en otras ocasiones $\displaystyle \int_L^\ast$ , $\displaystyle \mathcal{C}\int$ , $\displaystyle (CPV)\int$ , $\displaystyle P\int$ , $\displaystyle PV\int$ , $\displaystyle \operatorname{P.V.}\int$ , $\displaystyle P_v\int$ , $\displaystyle \operatorname{V.P.}\int$ , $\displaystyle \operatorname{p.v.}\int$ .


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 1 de octubre de 2020

(607) - Corolarios del último Teorema de Fermat-Wiles


El Último Teorema de Fermat o Teorema de Fermat-Wiles afirma que la ecuación diofántica $x^n+y^n = z^n$ no tiene soluciones no-triviales en $\mathbb{N}$ donde $n\in\mathbb{N}\hspace{-3pt}\setminus\hspace{-3pt}\{1,2\}$ . Hoy veremos cómo podemos extender este resultado.

El caso para $ x,y,z\in \mathbb{N}\subsetneq \mathbb{Z}$ se puede generalizar a $ x,y,z\in \mathbb{Z} $ (en especial, a $ x,y,z\in \mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\mathbb{N} $ ):
· Si $n=2k$ para algún $k\in\mathbb{N}$ , se tiene que $(-a)^{2k}=+\, a^{2k}$ donde $\pm a\in\mathbb{Z}$ , por lo que para exponentes pares, las bases pueden ser enteras.
· Si $n=2k+1$ para algún $k\in\mathbb{N}$ , se tiene que $(-a)^{2k+1}=-\,a^{2k+1}$ donde $\pm a\in\mathbb{Z}$ , por lo que bastaría con llevar las bases negativas al otro miembro de la ecuación para volver a la forma más conocida del teorema.

Veamos ahora, por una reducción al absurdo, que no se puede tener $ x,y,z\in \mathbb{Q} $ a la vez como solución (en especial, a $ x,y,z\in \mathbb{Q\hspace{-3pt}}\setminus\hspace{-3pt}\mathbb{Z} $ ). Supongámoslo resuelto primero (suponer que es posible es el absurdo en sí):
$$ \begin{array}{cccccc}
x^n & + & y^n & = & z^n & \\
\displaystyle \left(\frac{a_1}{a_2}\!\right)^{\!\! n} & + & \displaystyle\left(\frac{b_1}{b_2}\!\right)^{\!\! n} & = & \displaystyle \left(\frac{c_1}{c_2}\!\right)^{\!\! n} & \\
\big(a_1b_2c_2\big)^{\! n} & + & \big(a_2b_1c_2\big)^{\! n} & = & \big(a_2b_2c_1\big)^{\! n} & \qquad\mathit{Q.E.A.}
\end{array} $$
Si existieran $\displaystyle x = \frac{a_1}{a_2},y= \frac{b_1}{b_2},z= \frac{c_1}{c_2}\in \mathbb{Q} $ , con $ a_j, b_j, c_j \in \mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\{0\}$ para $j=1,2$ , implicaría que existen unas soluciones $ a_1b_2c_2,a_2b_1c_2,a_2b_2c_1\in \mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\{0\} $ que satisfarían la Conjetura de Fermat, lo que es absurdo ( $\mathit{Q.E.A.}$ ), ergo el Teorema de Fermat-Wiles no tiene soluciones racionales para exponentes naturales. Como un corolario tenemos:
$$ \boxed{ \nexists q_1,q_2 \in\mathbb{Q} \,\big/\, {q_1}^n + {q_2}^n = \pm 1 \quad\forall n\in\mathbb{N}, n\geqslant 3 } $$
Veamos ahora que el exponente puede ser hasta un número entero (incluso negativo) $-n\in\mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\mathbb{N} \,\big|\, n \in \mathbb{N} \subsetneq \mathbb{Z}$ . Supongamos resuelto el problema (otra reducción al absurdo):
$$ \begin{array}{cccccc}
x^{-n} & + & y^{-n} & = & z^{-n} & \\
\displaystyle \left(\frac{1}{x}\right)^{\!\! n} & + & \displaystyle \left(\frac{1}{y}\right)^{\!\! n} & = & \displaystyle \left(\frac{1}{z}\right)^{\!\! n} & \\
\big(yz\big)^{\! n} & + & \big(xz\big)^{\! n} & = & \big(xy\big)^{\! n} & \qquad\mathit{Q.E.A.}
\end{array} $$
Si existiera $-n\in\mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\mathbb{N}$ , con $ x,y,z \in \mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\{0\} $ implicaría que existen unas soluciones $ yz,xz,xy\in \mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\{0\} $ que satisfarían la Conjetura de Fermat, lo que es absurdo ( $\mathit{Q.E.A.}$ ), ergo el Teorema de Fermat-Wiles no tiene soluciones racionales para exponentes enteros .

Es más podemos afirmar que $\sqrt[n]{2\,} \not\in \mathbb{Q}$ al menos para $n \geqslant 3$ : $$ \begin{array}{cccccc}\sqrt[n]{2\,} & = & \displaystyle \frac{a}{b} & \\2 & = & \displaystyle \frac{a^n}{b^n} & \\ a^n & = & 2b^n &\qquad\mathit{Q.E.A.}\end{array} $$ (Se puede generalizar este resultado para dado$n\in\mathbb{N}\hspace{-3pt}\setminus\hspace{-3pt}\{1,2\}$ fijo, el número $\sqrt[n]{a\,}\not\in\mathbb{Q}$ si $\sqrt[n]{a-1\,}\in\mathbb{Q}$ .) Por todo esto, podemos afirmar que:
El Teorema de Fermat-Wiles afirma que la ecuación diofántica $x^\alpha+y^\alpha = z^\alpha$ carece de soluciones no-triviales $(x,y,z)\in\mathbb{Q}^3$ con $\alpha\in\mathbb{Z}\hspace{-3pt}\setminus\hspace{-3pt}\{\pm 1,\pm 2\}$ .
Como un último corolario podemos afirmar que no existe un triángulo rectángulo cuyos lados sean todos a la vez cuadrados perfectos, o cubos perfectos, ... .


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

martes, 19 de mayo de 2020

(601) - Eligir la base óptima y su significado físico. Aceleración tangencial ⁊ normal


La elección de una buena base es muy importante, en especial si se quieren simplificar los cálculos. Sin embargo, hay un motivo ulterior en escoger buenas bases, y entre estas, la óptima: buscamos una con un significado físico-geométrico.
Elegir una base donde los vectores que la definen sean perpendiculares entre sí (ortogonales) es muy útil a la hora de calcular y a la de representar el resultado. Para ilustrar mejor el resultado, tomemos un vector como la velocidad ( $\vec{v}$ ), derivable al menos una vez, y expresémoslo (ya relatado en un artículo sobre qué son los vectores) como el producto de su módulo por su vector unitario, y derivemos:

\begin{align*}
\vec{v} = & \|\vec{v}\| \cdot \hat{v} \\
\frac{\text{d}\vec{v}}{\text{d}t} = & \frac{\text{d}(\|\vec{v}\| \hat{v} )}{\text{d}t} \\
\vec{a} = & \frac{\text{d}\|\vec{v}\|}{\text{d}t}\hat{v} + \|\vec{v}\| \frac{\text{d}\hat{v}}{\text{d}t} \\
\end{align*}En estos dos sumandos tienen dimensiones de aceleración, ergo tiene sentido darle nombres de aceleración:
· Definamos aceleración tangencial como $\vec{a}_\parallel \overset{\text{def}}{=} \dfrac{\text{d}\|\vec{v}\|}{\text{d}t}\hat{v}$ , paralela a la velocidad compartiendo el punto de aplicación. Aparece, en especial, en movimientos rectilíneos.
· Definamos aceleración normal como $\vec{a}_\perp \overset{\text{def}}{=} \|\vec{v}\|\dfrac{\text{d}\hat{v}}{\text{d}t}$
 , perpendicular a la velocidad compartiendo el punto de aplicación. Aparece, en especial, en movimientos circulares.
Nótese que la aceleración tangencial no es necesariamente la derivada temporal de la "velocidad tangencial" (de una misma deducción), y lo mismo para la normal.

Estos dos tipos de aceleración son perpendiculares entre sí donde caben resaltar las siguientes dos propiedades:

· $\displaystyle \vec{a} \triangleq \vec{a}_\parallel + \vec{a}_\perp$ 
· $\displaystyle \left\|\vec{a}\right\|^2 \triangleq \left\|\vec{a}_\parallel\right\|^2 + \left\|\vec{a}_\perp\right\|^2$ Teorema de Pitágoras
¿Qué significa todo esto? Hemos descompuesto un vector genérico, $\vec{a}$ , en suma de dos vectores perpendiculares entre sí, $\vec{a}_\parallel \perp \vec{a}_\perp$ , por ende sendos módulos son una terna pitagórica (al describir ellos tres en todo momento un triángulo rectángulo). 
No solo eso, sino que además, ambos vectores descompuestos tienen un significado físico-geométrico entre sí, en el sistema de referencia, y además con respecto a la integral del vector suma. Esto tiene mucha relevancia porque descomponer un vector en suma de ortogonales con conciertas propiedades (que simplifican mucho calcular sendas normas) no es especialmente trivial.

Esta deducción con el vector aceleración ( $\vec{a}$ ), se puede hacer con cualquier vector genérico, constante o no, y con vectores que a lo mejor no concibamos su integral, como el vector posición, ( $\vec{r}$ ), sobre el que ya vendrá un artículo al respecto...

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

lunes, 4 de mayo de 2020

(599) - Derivada prima, o derivando respecto a dos sistemas de referencia diferentes

En el día de hoy traemos una entrada sobre qué pasa cuando derivamos una misma magnitud respecto a la misma variable, pero en dos sistemas de referencia distintos.

Supongamos que tenemos $\mathcal{S}=\{O;\mathcal{B}\}$ , un sistema de referencia [afín o no], no-inercial, centrado en $O$ , y $\mathcal{S}^\prime=\{O^\prime;\mathcal{B}^\prime\}$ , un sistema de referencia [afín o no], inercial (pues cumple la I Ley [traslacional] de Newton – Ley de la Inercia [traslacional]), centrado en $O^\prime$ (donde $\mathcal{B}\overset{\text{def}}{=}\Big\{\widehat{\imath},\widehat{\jmath}, \widehat{k}\Big\}$ , y $\mathcal{B}^\prime\overset{\text{def}}{=}\Big\{\widehat{\imath}^\prime,\widehat{\jmath}^\prime, \widehat{k}^\prime\Big\}$ son sendas bases).
Supongamos también que $\mathcal{S}$ rota respecto a $\mathcal{S}^\prime$ a una velocidad angular $\vec{\omega}$ .

Supongamos que $\displaystyle O\vert_{t=t_0}\equiv O^\prime\vert_{t=t_0}$ , y consideremos un punto genérico $P$ con unas coordenadas específicas respecto a la base de cada sistema de referencia, pues $P$ es el trasladado de $O$ por $\vec{r}$ , y a la vez, el trasladado de $O^\prime$ por $\vec{r}^\prime$ (en terminología de espacio afín), $P\equiv O+\vec{r} \equiv O^\prime+\vec{r}^\prime$ .

¿Qué ocurre al pasar de un instante genérico $t$ a uno $t+\text{d}t$ con $P$ ?
· En $\mathcal{S}$ , visto desde $\mathcal{S}$ , pasa de $\vec{r}$ a $\vec{r}\!+\!\text{d}\vec{r}$ rotando un ángulo $\text{d}\vec{\theta}$ .
· En $\mathcal{S}^\prime$ , visto desde $\mathcal{S}^\prime$ , pasa de $\vec{r}^\prime$ a $\vec{r}^\prime\!\!+\!\text{d}^\prime\vec{r}^\prime$ rotando un ángulo $\text{d}^\prime\vec{\theta}^\prime$ .
· En $\mathcal{S}$ , visto desde $\mathcal{S}^\prime$ , pasa de $\vec{r}$ a $\vec{r}\!+\!\text{d}^\prime\vec{r}$ rotando un ángulo $\text{d}^\prime\vec{\theta}$ .
· En $\mathcal{S}^\prime$ , visto desde $\mathcal{S}$ , pasa de $\vec{r}^\prime$ a $\vec{r}^\prime\!\!+\!\text{d}\vec{r}^\prime$ rotando un ángulo $\text{d}\vec{\theta}^\prime$ .

Nótense las relaciones fundamentales:
$\text{d}^\prime\vec{r} = \text{d}^\prime\vec{\theta}\!\times\!\vec{r}$ (diferencial de la posición relativa en $\mathcal{S}^\prime$ )
$\text{d}^\prime\vec{r} = \text{d}\vec{r}\!+\!\text{d}^\prime\vec{\theta}\!\times\!\vec{r}$ (diferencial de la posición absoluta ya que $P$ se mueve respecto de $\mathcal{S}$ a una velocidad $\dfrac{\text{d}\vec{r}}{\text{d}t}$ )
$\vec{\omega}\overset{\text{def}}{=}\dfrac{\text{d}^\prime\vec{\theta}}{\text{d}t}$ (definición de velocidad angular de rotación de $\mathcal{S}$ respecto a $\mathcal{S}^\prime$ )

Ahora comparando cómo ha variado su posición, $\text{d}^\prime\vec{r}$ , en el intervalo $\text{d}t$ :
$$\boxed{ \frac{\text{d}^\prime\vec{r}}{\text{d}t} = \frac{\text{d}\vec{r}}{\text{d}t}+\vec{\omega}\times\vec{r} }$$ (Si además el sistema $\mathcal{S}$ se trasladase respecto a $\mathcal{S}^\prime$, se añade un sumando en el 2º término que fuese dicha velocidad respecto a $\mathcal{S}^\prime$ , $\displaystyle \frac{\text{d}^\prime\vec{R}}{\text{d}t}$ .)
Nótese que la derivada prima $\displaystyle \frac{\text{d}^\prime\vec{r}}{\text{d}t}$ sigue siendo una aplicación lineal, y que ambas derivadas solo se diferencian en ese término extra , $\vec{\omega}\times\vec{r}$ (otra aplicación lineal), la cual solo se anula si ambos son paralelos, $\vec{\omega}\parallel\vec{r}$ , donde está contemplado el caso que $\vec{\omega}\equiv\vec{0}$ (por lo que si un sistema de referencia no rota respecto al otro, ambas derivadas son iguales [la clásica y la prima] ).
Esta deducción con el vector $\vec{r}$ , se puede hacer para cualquier vector, y se llegaría a la misma relación.

Una curiosa relación cuanto menos, ya que la derivada prima de un vector constante, $\vec{c}$ , no es necesariamente $\vec{0}$ , sino que puede hasta ser un vector que varíe en función del tiempo, $\vec{\omega}(t)\times\vec{c}$ .
Es más, el núcleo o kernel de esta derivada prima, si definimos la matriz $\displaystyle \boldsymbol{\Omega}=\begin{pmatrix} 0 & \omega_z & -\omega_y \\ -\omega_z & 0 & \omega_x \\ \omega_y & -\omega_x & 0 \end{pmatrix}$ , viene definido por la ecuación diferencial: $\displaystyle \operatorname{Ker}\left( \frac{\text{d}^\prime}{\text{d}t}\right) = \left\{ \vec{P}\;\Big/\; \frac{\text{d}\vec{P}}{\text{d}t} + \vec{\omega}\times\vec{P} = \vec{0} \right\} = \left\{ \vec{P}\;\Big/\; \frac{\text{d}\vec{P}}{\text{d}t} = \boldsymbol{\Omega} \vec{P} \right\} = \left\{ \vec{P}\;\Big/\; \vec{P} = e^{\displaystyle \int_{t_0}^t\boldsymbol{\Omega}\;\text{d}t} \vec{P}_0 \right\}$ con $e^{\displaystyle \int_{t_0}^t\boldsymbol{\Omega}\;\text{d}t}$ , o bien $e^{\int\boldsymbol{\Omega}}$ para simplificar la notación, es la matriz exponencial de [la matriz] $\displaystyle \int_{t_0}^t\boldsymbol{\Omega}\;\text{d}t$ donde el elemento $i,j-$ésimo está definido por $\displaystyle {\left( \int_{t_0}^t\boldsymbol{\Omega}\;\text{d}t \right)}_{i,j} \triangleq \int_{t_0}^t {\left( \boldsymbol{\Omega} \right)}_{i,j} \;\text{d}t$ .


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

sábado, 18 de abril de 2020

(593) - Cuando la regla del producto falla en el caso más simple. Ecuación de Meshchérskiy-Tsiolkóvskiy

En el día de hoy intentamos entender una paradoja al usar mal la regla del producto al derivar: Partamos de la II Ley [traslacional] de Newton - Ley Fundamental de la Dinámica [traslacional] (no en su formulación newtoniana, sino con el Teorema del momento lineal), y de la definición newtoniana de momento lineal ( $\vec{p}$ ). $$ \sum\vec{F} = \frac{\text{d}\vec{p}}{\text{d}t}\qquad\wedge\qquad \vec{p}\overset{\text{def}}{=} m\vec{v}$$ Ahora combinemos ambas, y apliquemos la regla de la cadena: $$ \sum\vec{F} = \frac{\text{d}(m\vec{v})}{\text{d}t} \implies \sum\vec{F} \overset{???}{=} \frac{\text{d}m} {\text{d}t}\vec{v} + m\frac{\text{d}\vec{v}} {\text{d}t} $$ Esto no cumple el Principio de Relatividad bajo las Trasformaciones galileanas (Invarianza galileana): para un objeto de masa variable cuando $\displaystyle \sum\vec{F}\equiv\vec{0}$ , la expresión anterior implicaría que permanece en reposo en un sistema que originalmente está en reposo, pero lo acelera una "fuerza ficticia" $\displaystyle -\frac{\text{d}m}{\text{d}t}\vec{v}\not\equiv\vec{0}$ en un sistema que se mueve con velocidad $\vec{v}$ .

Para resolver esta paradoja aparente, consideremos una acreción de masas (colisión donde se suman las masas), pues es más intuitivo que el caso de eyección (donde también se llega al mismo resultado): Consideremos en un instante $t$ dos partículas cuyas masas instantáneas son $\text{d}m$ , y $m$ con sendas velocidades instantáneas $\vec{v}_1$ , y $\vec{v}$ , por lo que tienen un momento lineal total de $\vec{p}\vert_{t}=\text{d}m\cdot\vec{v}_1+m\vec{v}$ .

Tras la colisión, en un instante $t+\text{d}t$ , la masa instantánea será $m+\text{d}m$ , y tendrá una velocidad instantánea $\vec{v}+\text{d}\vec{v}$ , ergo tiene un momento lineal $\vec{p}\vert_{t+\text{d}t}=(m+\text{d}m)\cdot(\vec{v}+\text{d}\vec{v})$ .

El impulso instantáneo es $\vec{I}\overset{\text{def}}{=}\vec{p}\;\big\vert_t^{t+\text{d}t}=\text{d}\vec{p} = \text{d}m\cdot(\vec{v}-\vec{v}_1) + m\text{d}\vec{v}$ (despreciando el producto de dos diferenciales) que ha transcurrido en un intervalo $\text{d}t$ , en $[t,t+\text{d}t]$ .

Nótese que $\vec{v}-\vec{v}_1$ es la velocidad relativa de la partícula de masa instantánea $m$ respecto a la otra partícula, la de masa instantánea $\text{d}m$ .

Si se halla la fuerza, se llega a una expresión similar, pero corregida respecto a la inicial ( $\vec{F}\neq m\vec{a}$ ) : $$\boxed{ \vec{F}_\text{ext} = \frac{\text{d}m}{\text{d}t}(\vec{v}-\vec{v}_1) + m\frac{\text{d}\vec{v}}{\text{d}t} }$$ El término $\displaystyle \vec{F}_\text{reac}\overset{\text{def}}{=}-\frac{\text{d}m}{\text{d}t}(\vec{v}-\vec{v}_1)$ es la fuerza de reacción, es decir, la fuerza ejercida sobre el sistema ya que hay una variación de masa. Si se pasa al otro término vemos una relación mucho más familiar: $$\vec{F}_\text{ext} + \vec{F}_\text{reac} = m\vec{a}$$ Es justamente por este término de donde surge la paradoja: la fuerza que aparece en la II Ley [traslacional] de Newton - Ley Fundamental de la Dinámica [traslacional] hace referencia a la suma de todas las fuerzas externas, es decir, a la fuerza neta (o resultante), pero una variación en la masa del objeto se puede deber a una fuerza interna, a un empuje, etc.
De aquí se saca la conocida Ecuación de Meshchérskiy (también transliterado como Meshchérskij , del ruso Меще́рский , también escrito como Меще́рскій anterior a la reforma ortográfica de $1918$), donde $\vec{v}_\text{rel} =-(\vec{v}-\vec{v}_1) $ : $$\boxed{ \vec{F}_\text{ext} + \frac{\text{d} m}{\text{d}t}\vec{v}_\text{rel} = m \frac{\text{d} \vec{v}}{\text{d}t} }$$ Su caso particular con $\vec{F}_\text{ext}\equiv\vec{0}$ se conoce como Ecuación del cohete de Tsiolkóvskiy (también transliterado como Tsiolkóvskij , del ruso Циолко́вский , también escrito como Ціолко́вскій anterior a la reforma ortográfica de $1918$), que implica resolver la ecuación diferencial: $$ -\frac{\text{d}m}{\text{d}t}(\vec{v}-\vec{v}_1) = m\frac{\text{d}\vec{v}}{\text{d}t} \iff -\frac{\text{d}m}{m} = \frac{\text{d}\vec{v}}{\vec{v}-\vec{v}_1} $$
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 16 de abril de 2020

(587) - Pseudovectores. Los vectores que no son vectores - falsos vectores


En el día de hoy traemos una entrada sobre qué es un pseudovector.

Consideremos dos vectores: $\vec{u}$ , $\vec{v}$ . Coloquemos un espejo perpendicular a cada uno en sendos orígenes. Si reflejamos los vectores obtendremos: $-\vec{u}$ $-\vec{v}$ , ergo son euvectores [vectores verdaderos o vectores polares].

Sin embargo si consideramos ahora el producto vectorial de los no-reflejados: $\vec{u}\times\vec{v}$ , y el de los sí-reflejados: $(-\vec{u})\times(-\vec{v})$ , ambos son el mismo vector. Este vector no ha cambiado de signo tras una reflexión, por lo que es un pseudovector [vector axial].

Un pseudovector es una magnitud física que se transforma como un euvector ante una rotación debida, pero que en el espacio tridimensional obtiene un cambio de signo bajo una rotación impropia (e.g. reflexión).

Veamos algunos ejemplos en física, ya que es una materia donde se puede explicar todo a través de vectores:
Los vectores posición $\vec{r}$ , desplazamiento $\Delta\vec{r}$ , velocidad $\vec{v}$ , aceleración $\vec{a}$ , tirón $\vec{\jmath}$ , momento lineal $\vec{p}$ , impulso lineal $\vec{I}$ , o fuerza $\vec{F}$ son euvectores.
Los vectores posición angular $\vec{\theta}$ , desplazamiento angular $\Delta\vec{\theta}$ , velocidad angular $\vec{\omega}$ , aceleración angular $\vec{\alpha}$ , tirón angular $\vec{\zeta}$ , momento angular $\vec{L}$ , impulso angular $\vec{\phi}$ , o torque $\vec{\tau}$ son pseudovectores.

Para terminar, he aquí una tabla con los correspondientes productos vectoriales.
x
euvector
pseudovector
euvector
pseudovector
euvector
pseudovector
euvector
pseudovector


AutorĐɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 9 de abril de 2020

(577) - ¿Qué es un vector? 4 "definiciones"-interpretaciones según el tipo de matemático


En el día de hoy traemos una entrada sobre qué es un vector según diferentes enfoques.

Antes de empezar, cabe resaltar que para tanto algebristas como analistas prefieren representar un vector como sus componentes tal cual, mientras que los físicos pueden preferir representarlo como el producto de su módulo por su vector unitario correspondiente.

· Para un informático, o un estadista-probabilista, un vector es una forma eficaz de almacenar información que aparece como un listado o un array de diferentes números donde se considera la posibilidad de haber elementos repetidos.

· Para un algebrista, un vector es un elemento de un espacio vectorial: una n-tupla [pareja, trío, cuarteto…] de variables, constantes, parámetros o incluso funciones que vive en un espacio vectorial.

· Para un analista, su concepción de vector es muy similar a la de un algebrista, pues lo ve como una yuxtaposición ordenada y consecutiva de funciones (o similar).

· Para un físico, sin embargo, la concepción de un vector es la que más se asemeja a la que se da en ESO y Bachillerato: un vector es un “viaje”, una distancia flechada entre dos puntos del espacio bi- o tridimensional (uno que es el origen y otro, el destino)
Esto está muy bien para definir los vectores como posición ( $\vec{r}$ ), desplazamiento ( $\Delta\vec{r}$ ), o fuerza ( $\vec{F}$ ), pero, ¿y vectores como velocidad ( $\vec{v}$ ), aceleración ( $\vec{a}$ ), campo ( $\vec{E},\vec{g},...$ ), o momentos ( $\vec{p},\vec{L},...$ )? Muy fácil: mediante derivadas, integrales, límites, y productos escalares y vectoriales. Toda la física se puede describir mediante el vector posición ( $\vec{r}$ ) y aplicado a varios operadores de derivación, integración,… Esto es el inicio de la cinética.

AutorĐɑvɪẟ Ƒernández-De la Cruʒ.

miércoles, 1 de abril de 2020

(569) - Integrales. Riemann vs Darboux (con GIFs descargables)


En el día de hoy traemos una entrada bastante útil: ¿En qué se diferencian la integral de Riemann de la integral de Darboux?

Riemann propuso su integral en un artículo de la universidad de Gotinga en 1854, pero se publicó póstumamente en 1866. Unos años después, en 1875, Darboux propuso su integral.
Cabe resaltar que ambas son equivalentes, es decir, una función es Riemann-integrable si y solo si es Darboux-integrable. Ambas empiezan haciendo una partición del intervalo de integración, y considerando la suma de las áreas de los rectángulos que aproximan la integral.

La integral de Riemann para cada subintervalo toma un nodo tal que la función evaluada en dicho nodo sea una aproximación de la altura promedia del rectángulo, cuya área aproxima el área de la función en dicho subintervalo.
Suma de Riemann del punto medio en una partición uniforme.

La integral de Darboux para cada subintervalo halla el ínfimo y el supremo que toma la función en dicho subintervalo. Luego calcula las áreas del “rectángulo inferior” (el rectángulo de área maximal que está contenido por la función) y del “rectángulo superior” (el rectángulo de área minimal que contiene la función).
Sumas inferior y superior de Darboux en una partición uniforme.

La construcción de Darboux es probablemente la más intuitiva, la que se utiliza muchas veces a la hora de demostrar proposiciones, y la que se enseña en Bachillerato, mientras que la de Riemann se suele usar a la hora de computar numéricamente una integral.

AutorĐɑvɪẟ Ƒernández-De la Cruʒ.

(571) - Integral de Stieltjes. Integrales sin dx .



En el día de hoy traemos una entrada bastante curiosa y olvidada hasta por los profesores de análisis: La integral de Stieltjes, de $1894$ .

Cuando nos explicaban qué era una integral veíamos qué significaba el signo integral, qué es el integrando (la función que se integra) y el integrador (con respecto a qué se integra) que solía aparecer como $\text{d}x$ . Pero, ¿qué pasa cuando el integrador es una función en sí, $\alpha(x)$ ?
Por ejemplo, ¿qué significan $\displaystyle\int\,\text{d}x^3$ o por ejemplo $\displaystyle \int x\,\text{d}e^x$ ?
La integral de Stieltjes da respuesta a esta pregunta centrándose en el integrador más que en el integrando, cumpliendo las siguientes propiedades respecto al integrador:
·Es lineal.
·Para un integrando positivo, se conserva la monotonía (sino, se invierte).
·El valor absoluto de la integral es menor igual que la integral del valor absoluto
·Cumple la identidad de Chasles.
·Si (el integrador) es diferenciable, se puede sustituir  $\text{d}\alpha(x)=\alpha^{(1)}(x)\,\text{d}x$ .

Combinando esta construcción de la integral con otras, nos da dos equivalentes: la de Darboux-Stieltjes y Riemann-Stieltjes (donde las integrales de Darboux y Riemann a secas son sendos casos particulares más simples). Las integrales de D.-S. y R.-S. son aplicaciones bilineales asimétricas que son un paso anterior a la introducción de la integral de Lebesgue.

Aunque esto pueda parecer en un principio muy raro, integrar por partes es aplicar la integración de Stieljes con dos funciones diferenciables. (Es más usando la integración por partes se llega a una aplicación bilineal simétrica y/o antisimétrica de la integral de D.-S. y de R.-S. )

Las integrales de Darboux, Riemann, o Lebesgue nos dicen cómo ha tratarse la integral según el integrando, mientras que la de Stieltjes, según el integrador.

AutorĐɑvɪẟ Ƒernández-De la Cruʒ.

domingo, 22 de marzo de 2020

(563) - Antilogaritmos, cologaritmos, ⁊ más...


En el día de hoy traemos una entrada un poco corta, algo ya mencionado en el artículo de la trigonometría olvidada. ¿Qué son los antilogaritmos, y cologaritmos?
Básicamente son dos funciones auxiliares para el cálculo de logaritmos definidas a partir de composición de funciones elementales con funciones estrictamente logarítmicas.

El antilogaritmo (antilogarithmes una función cuya composición con la función logaritmo da la función original, es decir, es la función inversa al logaritmo: la exponencial.
Comparación antilogaritmo - logaritmo

El cologaritmo (cologarithm) es una función cuya suma con la función logaritmo da la función idénticamente nula, es decir, es menos la función logaritmo. 
Comparación cologaritmo - logaritmo
¿Se podrían definir anticologaritmo y coantilogartimo?
El anticologaritmo (anticologarithmfuera la función inversa del opuesto del logaritmo, es decir, la exponencial con exponente cambiado de signo.
El coantilogartimo  (coantilogarithmfuera el opuesto de la función inversa al logaritmo, es decir, menos la función exponencial.
Comparación coantilogaritmo - anticologaritmo
   Tabla de simetrías


Logb
CoLogb
AntiLogb
CoAntiLogb
AntiCoLogb
Logb
(sí misma)
y = 0
y = +x


CoLogb
y = 0
(sí misma)

y = -x
y = +x
AntiLogb
y = +x

(sí misma)
y = 0
x = 0
CoAntiLogb

y = -x
y = 0
(sí misma)
y = -1/b x
AntiCoLogb

y = +x
x = 0
y = -1/b x
(sí misma)
Esta es una perla olvidada de las matemáticas dejada de lado  ya que ahora ya no es necesario recurrir a tablas para saber cuáles son los valores de logaritmos, y como las funciones verseno, vercoseno, coverseno, covercoseno, exsecante, y excosecante, ya nadie se acuerda de ellas.

AutorĐɑvɪẟ Ƒernández-De la Cruʒ.