sábado, 20 de noviembre de 2021

(739) - GIFs descargables: Integral de Lebesgue y su Teorema del Valor Medio

Si bien es cierto que los dibujos no demuestran nada, como bien dice el refrán: una imagen dice más de $1.000$ palabras. Por ello he hecho estos GIFs animados que ayudan a entender visualmente las integrales de Lebesgue.

Integrales superior e inferior de Lebesgue
Suma inferior de Lebesgue

Suma superior de Lebesgue

Recordemos que habíamos acuñado los conjuntos elementales de Darboux-Lebesgue como $\displaystyle E_n = \Big\{ x\in\Omega \;\big/\; y_n\gneq\big|f(x)\big|\geqslant y_{n-1} \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega$ , por lo que se tiene la desigualdad tipo Chebyshov: $$\inf\left( \sum_{n\in\mathbb{N}_0} {y_n}^p\, \mu(E_n)\right) \gneq \int\limits_E|f|^p\;\mathrm{d}\mu \geqslant \sup\left( \sum_{n\in\mathbb{N}_0} {y_{n-1}}^p\, \mu(E_n) \right)$$ 

Integral asociada de Lebesgue 
Recordemos que habíamos acuñado los conjuntos elementales de Riemann-Lebesgue (conjuntos elementales asociados de Lebesgue) como $\displaystyle E_n = \Big\{ x\in\Omega \;\big/\; 0\leqslant\big|f(x)-y_n\big|\lneq\varepsilon \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega$ , por lo que se tiene la desigualdad tipo Chebyshov: $$ \Bigg|\int\limits_E f\;\mathrm{d}\mu-\sum_{n\in\mathbb{N}_0}y_n\, \mu(E_n)\Bigg|\lneq \varepsilon\, \mu(E) $$
Integral asociada de Lebesgue

 
Integral asociada de Lebesgue - variando la secuencia de los $y_n$


Teorema del valor medio integral en su formulación para la integral de Lebesgue:
¿Cómo se puede entender el teorema del valor medio? 
Geométricamente es una reinterpretación de las áreas de los sucesivos rectángulos: dada una sucesión de rectángulos con sendas bases y alturas, el valor medio integral es hallar la altura de un rectángulo equivalente que tiene por base la suma de las bases y por área la suma de las áreas. 
Analíticamente es hallar el valor de la función idénticamente constante (hallar el valor $\eta_y$ de la función escalonada $\eta_y\,\chi\raise-.5ex\hbox{}_{E}(x)$ ) tal que tenga la misma integral en $E$ que la función $f(x)$ .
En las desigualdades se vuelve para las integrales superiores e inferiores de Lebesgue: $$ \inf\left( \sum_{n\in\mathbb{N}_0} \frac{\mu(E_n)}{\mu(E)}{y_n}^p\right) \gneq \frac{1}{\mu(E)}\int\limits_E|f|^p\;\mathrm{d}\mu \geqslant \sup\left( \sum_{n\in\mathbb{N}_0} \frac{\mu(E_n)}{\mu(E)}{y_{n-1}}^p \right) $$ En las desigualdades se vuelve para la integral asociada de Lebesgue: $$\Bigg|\frac{1}{\mu(E)}\int\limits_E f\;\mathrm{d}\mu-\sum_{n\in\mathbb{N}_0}\frac{\mu(E_n)}{\mu(E)}y_n \Bigg|\lneq \varepsilon $$ En virtud de la propiedad de Darboux (teorema del valor intermdio), realmente de un análogo para sucesiones, podemos asegurar que el valor medio $\eta_y$ está entre dos términos sucesivos de la sucesión creciente $\{y_n\}_{n\in\mathbb{N}_0}$ .


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

martes, 9 de noviembre de 2021

(733) - Integral Asociada de Lebesgue. Mejor que Riemann (con GIFs descargables) (3/3)

Si bien es cierto que los dibujos no demuestran nada, como bien dice el refrán: una imagen dice más de $1.000$ palabras. Por ello he hecho estos GIFs animados que ayudan a entender visualmente las integrales de Riemann, y de Lebesgue. Definamos los subintervalos de la partición $I_k \overset{\text{def}}{=} [x_{k-1},x_k] \in\mathcal{P}\big([a,b]\big)$ .

Integral de Riemann
La suma asociada de Riemann, $\sigma(f,\mathcal{P}_n,T)$ , es la suma de las áreas de los rectángulos-verticales que aproximan la función $f$ en cada subintervalo $I_k$ , es decir, en cada subintervalo $I_k$ se considera un nodo $t_k$ tal que el valor de la función $f$ en dicho nodo, $f(t_k)$, sea una buena aproximación de la altura media de la función en dicho subintervalo.Según se aumenta el número de subintervalos $n$ , mejor se aproxima al valor del área bajo la función $f$ .$$ \begin{matrix} \displaystyle \sigma(f,\mathcal{P}_n,T) \overset{\text{def}}{=} \sum_{k=1}^n f(t_k)\Delta x_k \implies \displaystyle \int_a^b f(x) \,\text{d}x \overset{\text{def}}{=} \lim_{\|\mathcal{P}_n\hspace{1pt}\|\to 0}\!\!\! \sigma(f,\mathcal{P}_n,T) \\ \displaystyle \sigma(f,\dot{\mathcal{P}}_n) \overset{\text{def}}{=} \sum_{k=1}^n f(t_k)\Delta x_k \implies \displaystyle \int_a^b f(x) \,\text{d}x \overset{\text{def}}{=} \lim_{\|\dot{\mathcal{P}}_n\hspace{1pt}\|\to 0}\!\!\! \sigma(f,\dot{\mathcal{P}}_n) \end{matrix} $$


Integral de Riemann - variando los nodos
Aquí vemos variando el nodo $t_k$ en cada subintervalo $I_k$ (tomando cada uno con la misma definición respecto a los extremos del subintervalo). Así pues pasamos de una suma de Riemann por la izquierda ( $\lambda=0$ ) a una del punto medio ( $\lambda=0.5$ ) y finalmente a una por la derecha ( $\lambda=1$ ). $$ \lambda_k\in[0,1] \,/\, t_k \overset{\text{def}}{=} (1-\lambda_k)x_{k-1}+\lambda_k x_k\in I_k \in \mathcal{P}_n\big([a,b]\big) \implies \sigma(f,\dot{\mathcal{P}}_n) = \sum_{k=1}^n f\big((1-\lambda)x_{k-1}+\lambda x_k\big) \Delta x_k $$

Integral asociada de Lebesgue
Recordemos los conjuntos que acuñé en la última entrada como conjuntos elementales de Riemann-Lebesgue (conjuntos elementales asociados de Lebesgue) y desagamos el valor absoluto suponiendo que $f(x)\geqslant 0$: $$ E_n = \Big\{ x\in\Omega \;\big/\; 0\leqslant\big|f(x)-y_n\big|\lneq\varepsilon \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega $$ Es decir, $$ y_n-\varepsilon\lneq f(x) \lneq y_n+\varepsilon \quad \forall x\in E_n$$ Por lo que podemos reescribir la cotas $y_n\pm\varepsilon$ como funciones escalonadas $ (y_n\pm\varepsilon)\chi\raise-.5ex\hbox{}_{E_n}(x)$ , que valen exactamente $y_n\pm\varepsilon$ en $E_n$ y "fuera" no aporta nada. $$ (y_n-\varepsilon)\chi\raise-.5ex\hbox{}_{E_n}(x)\lneq f(x) \lneq (y_n+\varepsilon)\chi\raise-.5ex\hbox{}_{E_n}(x) \iff \bigg| f(x)-y_n\chi\raise-.5ex\hbox{}_{E_n}(x) \bigg| \lneq \varepsilon\chi\raise-.5ex\hbox{}_{E_n}(x)$$ Aplicando la monotonía de la integral se tiene que: $$ (y_n-\varepsilon)\mu(E_n) \lneq \int\limits_{E_n} \! f(x)\ \,\text{d}\mu(x) \lneq (y_n+\varepsilon)\mu(E_n) \implies \Bigg| \int\limits_{E_n} \! f(x)\ \,\text{d}\mu(x)-y_n\mu(E_n) \Bigg| \lneq \varepsilon\mu(E_n)$$ Esto es para un único $E_n$, por lo que si se considera la unión de todos los ubconjuntos, el supraconjunto $E$ , se tiene que: $$ \sum_{n=1} (y_n-\varepsilon)\mu(E_n) \lneq \int\limits_{E_n} \! f(x)\ \,\text{d}\mu(x) \lneq \sum_{n=1} (y_n+\varepsilon)\mu(E_n) \implies \Bigg| \int\limits_{E_n} \! f(x)\ \,\text{d}\mu(x)-\sum_{n=1}y_n\mu(E_n) \Bigg| \lneq \varepsilon\mu(E) $$ ¿Hemos terminado? Realmente sí. Hemos encontrado una función escalonada $\displaystyle \phi_n(x)\overset{\text{def}}{=} \sum_{n=1} y_n\chi\raise-.5ex\hbox{}_{E_n}(x)$ que dista de $f(x)$ a lo sumo tan poco como queramos, $\varepsilon$ , y que sendas integrales también distan tan poco como queramos, $\varepsilon\mu(E)$ . A este valor (de la integral de $\phi_n(x)$) lo acuño como suma o integral asociada de Lebesgue.$$ \int\limits_{[a,b]} \! f(x) \,\text{d}\mu(x) \overset{\text{def}}{=} \int\limits_{[a,b]} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_n\,\mu(E_n) $$
Integral asociada de Lebesgue

 
Refinando la secuencia de nodos de ordenadas o $\varepsilon$ se encuentra una aproximación mejor. 
Integral asociada de Lebesgue - variando la secuencia de los $y_n$



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

(727) - Integral Superior de Lebesgue. Mejor que Darboux (con GIFs descargables) (2/3)

Si bien es cierto que los dibujos no demuestran nada, como bien dice el refrán: una imagen dice más de $1.000$ palabras. Por ello he hecho estos GIFs animados que ayudan a entender visualmente las integrales superiores de Darboux, y de Lebesgue. Definamos los subintervalos de la partición $I_k \overset{\text{def}}{=} [x_{k-1},x_k] \in\mathcal{P}\big([a,b]\big)$ .

Integral superior de Daboux
La suma superior de Darboux, $s(f,\mathcal{P}_n)$ , hace referencia a la suma de las áreas de los rectángulos-verticales minimales que contienen la función $f$ . Según se aumenta el número de subintervalos $n$ , mejor se aproxima al valor del área bajo la función $f$ .$$ \begin{matrix}\displaystyle S(f,\mathcal{P}_n) \overset{\text{def}}{=} \sum_{k=1}^n \sup_{x\in I_k}\!\big\{f(x)\big\} \Delta x_k &\quad &\displaystyle 0 \leqslant \big|f(x)\big| \underset{\mu\text{ae}}{\leqslant} \sum_{n=1} y_n\,\chi\raise-.5ex\hbox{}_{E_n}(x) = \phi_n(x) \\ \displaystyle \mkern2.5mu\underline{\vphantom{\intop}\mkern15mu}\mkern-15mu\int_a^b \!\!\! f(x) \,\text{d}x \overset{\text{def}}{=} \inf_{\mathcal{P}_n\,\in\,\mathcal{P}}\!\big\{S(f,\mathcal{P}_n)\big\} &\quad &  \displaystyle \overline{\int}\limits_{[a,b]} \! \big|f(x)\big| \,\text{d}\mu(x) \overset{\text{def}}{=} \inf_{\phi_n \;\underset{\mu\text{ae}}{\geqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_n\,\mu(E_n) \Bigg\}\ \end{matrix} $$
Sumas superiores e inferiores de Darboux

Integral superior de Lebesgue 
Recordemos los conjuntos que acuñé en la última entrada como conjuntos elementales de Darboux-Lebesgue y centrémonos en la primera desigualdad: $$ E_n = \Big\{ x\in\Omega \;\big/\; y_n\gneq\big|f(x)\big|\geqslant y_{n-1} \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega$$ Es decir, $$ y_n\gneq\big|f(x)\big| \quad \forall x\in E_n$$ Por lo que podemos reescribir $y_n$ como la función escalonada $ y_n\,\chi\raise-.5ex\hbox{}_{E_n}(x)$ , que vale exactamente $y_n$ en $E_n$ y "fuera" no aporta nada. Aplicando la monotonía de la integral se tiene que: $$ y_n\,\chi\raise-.5ex\hbox{}_{E_n}(x) \gneq \big|f(x)\big| \implies \int\limits_{E_n} \! \ y_n\,\chi\raise-.5ex\hbox{}_{E_n}(x) \,\text{d}\mu(x) \triangleq y_n\,\mu(E_n) \gneq \int\limits_{E_n} \! \big|f(x)\big| \,\text{d}\mu(x) $$ Esto es para un único $E_n$, por lo que si se considera la unión de todos los ubconjuntos, el supraconjunto $E$ , se tiene que: $$ \sum_{n=1} y_n\,\chi\raise-.5ex\hbox{}_{E_n}(x) \overset{\text{def}}{=} \phi_n(x) \gneq \big|f(x)\big| \implies \int\limits_{E} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_n\,\mu(E_n) \gneq \int\limits_{E} \! \big|f(x)\big| \,\text{d}\mu(x) $$ ¿Hemos terminado? Casi. Hemos encontrado una cota superior, pero no la óptima, esa es su ínfimo, $\displaystyle \inf\Bigg\{\sum_{n=1} y_n\,\mu(E_n) \Bigg\}$ , que se puede hallar al ir refinando los conjuntos elementales. A este valor lo acuño como suma o integral superior de Lebesgue $$ \underline{\int}\limits_{[a,b]} \! \big|f(x)\big| \,\text{d}\mu(x) \overset{\text{def}}{=} \inf_{\phi_n \;\underset{\mu\text{ae}}{\geqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_n\,\mu(E_n) \Bigg\} $$
Suma superior de Lebesgue

Con estos mismos conjuntos se puede hallar fácilmente la integral en espacios $L^p$ de $|f|^p$ donde es: $$ \underline{\int}\limits_{[a,b]} \! \big|f(x)\big|^p \,\text{d}\mu(x) \overset{\text{def}}{=} \inf_{\phi_n \;\underset{\mu\text{ae}}{\geqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! {\phi_n}^p(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} {y_n}^p\,\mu(E_n) \Bigg\} $$



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

jueves, 14 de octubre de 2021

(719) - Integral Inferior de Lebesgue. Mejor que Darboux (con GIFs descargables) (1/3)

Si bien es cierto que los dibujos no demuestran nada, como bien dice el refrán: una imagen dice más de $1.000$ palabras. Por ello he hecho estos GIFs animados que ayudan a entender visualmente las integrales inferiores de Darboux, y de Lebesgue. Definamos los subintervalos de la partición $I_k \overset{\text{def}}{=} [x_{k-1},x_k] \in\mathcal{P}\big([a,b]\big)$ .

Integral inferior de Daboux
La suma inferior de Darboux, $s(f,\mathcal{P}_n)$ , hace referencia a la suma de las áreas de los rectángulos-verticales maximales que están contenidos entre el eje de abscisas y la función $f$ . Según se aumenta el número de subintervalos $n$ , mejor se aproxima al valor del área bajo la función $f$ .$$ \begin{matrix}\displaystyle s(f,\mathcal{P}_n) \overset{\text{def}}{=} \sum_{k=1}^n \inf_{x\in I_k}\!\big\{f(x)\big\} \Delta x_k &\quad &\displaystyle 0 \underset{\mu\text{ae}}{\leqslant} \sum_{n=1} y_{n-1}\,\chi\raise-.5ex\hbox{}_{E_n}(x) =  \phi_n(x) \underset{\mu\text{ae}}{\leqslant} \big|f(x)\big| \\ \displaystyle \mkern2.5mu\underline{\vphantom{\intop}\mkern15mu}\mkern-15mu\int_a^b \!\!\! f(x) \,\text{d}x \overset{\text{def}}{=} \sup_{\mathcal{P}_n\,\in\,\mathcal{P}}\!\big\{s(f,\mathcal{P}_n)\big\} &\quad &  \displaystyle \underline{\int}\limits_{[a,b]} \! \big|f(x)\big| \,\text{d}\mu(x) \overset{\text{def}}{=} \sup_{\phi_n \;\underset{\mu\text{ae}}{\leqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_{n-1}\,\mu(E_n) \Bigg\}\ \end{matrix} $$
Sumas superiores e inferiores de Darboux

Integral inferior de Lebesgue 
Recordemos los conjuntos que acuñé en la última entrada como conjuntos elementales de Darboux-Lebesgue y centrémonos en la segunda desigualdad: $$ E_n = \Big\{ x\in\Omega \;\big/\; y_n\gneq\big|f(x)\big|\geqslant y_{n-1} \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega$$ Es decir, $$ \big|f(x)\big|\geqslant y_{n-1} \quad \forall x\in E_n$$ Por lo que podemos reescribir $y_{n-1}$ como la función escalonada $ y_{n-1}\,\chi\raise-.5ex\hbox{}_{E_n}(x)$ , que vale exactamente $y_{n-1}$ en $E_n$ y "fuera" no aporta nada. Aplicando la monotonía de la integral se tiene que: $$ \big|f(x)\big|\geqslant y_{n-1}\,\chi\raise-.5ex\hbox{}_{E_n}(x) \implies \int\limits_{E_n} \! \big|f(x)\big| \,\text{d}\mu(x) \geqslant \int\limits_{E_n} \! \ y_{n-1}\,\chi\raise-.5ex\hbox{}_{E_n}(x) \,\text{d}\mu(x) \triangleq y_{n-1}\,\mu(E_n)$$ Esto es para un único $E_n$, por lo que si se considera la unión de todos los ubconjuntos, el supraconjunto $E$ , se tiene que: $$ \big|f(x)\big|\geqslant \sum_{n=1} y_{n-1}\,\chi\raise-.5ex\hbox{}_{E_n}(x) \overset{\text{def}}{=} \phi_n(x) \implies \int\limits_{E} \! \big|f(x)\big| \,\text{d}\mu(x) \geqslant \int\limits_{E} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_{n-1}\,\mu(E_n)$$ ¿Hemos terminado? Casi. Hemos encontrado una cota inferior, pero no la óptima, esa es su supremo, $\displaystyle \sup\Bigg\{\sum_{n=1} y_{n-1}\,\mu(E_n) \Bigg\}$ , que se puede hallar al ir refinando los conjuntos elementales. A este valor lo acuño como suma o integral inferior de Lebesgue $$ \underline{\int}\limits_{[a,b]} \! \big|f(x)\big| \,\text{d}\mu(x) \overset{\text{def}}{=} \sup_{\phi_n \;\underset{\mu\text{ae}}{\leqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! \phi_n(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} y_{n-1}\,\mu(E_n) \Bigg\} $$
Suma inferior de Lebesgue
Con estos mismos conjuntos se puede hallar fácilmente la integral en espacios $L^p$ de $|f|^p$ donde es: $$ \underline{\int}\limits_{[a,b]} \! \big|f(x)\big|^p \,\text{d}\mu(x) \overset{\text{def}}{=} \sup_{\phi_n \;\underset{\mu\text{ae}}{\leqslant}\; f}\Bigg\{\int\limits_{[a,b]} \! {\phi_n}^p(x) \,\text{d}\mu(x) \triangleq \sum_{n=1} {y_{n-1}}^p\,\mu(E_n) \Bigg\} $$



Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

lunes, 4 de octubre de 2021

(709) - Función simple y límite de una sucesión de funciones escalonadas (con GIFs descargables)

En la última entrada comentamos cómo podemos crear una función escalonada, es decir, constante en conjuntos casi a modo de una escalera.
Estos conjuntos no son necesariamente intervalos, sino que pueden ser uniones de intervalos monopuntuales o no. Por ejemplo, se puede definir el conjunto donde la función seno, $\operatorname{sen}(x)$, sea positiva, es decir, $\displaystyle E = \{x\in\mathbb{R} / \operatorname{sen}(x) \geqslant 0 \} = \bigcup_{n\in\mathbb{Z}} \big[2 \pi n, (2n+1)\pi\big]$ , es decir, es unión (disjunta) de infinitos intervalos.
$$\begin{array}{ cccc }\displaystyle \phi_n \overset{\text{def}}{=} \sum_{k=1}^n y_k \chi\raise-.5ex\hbox{}_{E_k} : & \Omega & \longrightarrow & \{0\}\cup\big\{y_k\;\big/\; k=1,\cdots , n \big\} \subsetneq\mathbb{R} \\& x & \longmapsto & \displaystyle \begin{matrix} 0 & \big| & x\not\in \displaystyle \bigcup_{k=1}^n \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_k \subseteq \Omega\\ y_k & \big| & x\in E_k \subseteq \displaystyle \bigcup_{k=1}^n \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_k \subseteq \Omega \end{matrix}\end{array}$$ Es decir, a esta función $\phi_n(x)$ se le asigna el valor $0$ si $x$ no está en ningún $E_k$ (y por lo tanto no está en la unión de todos), y si sí está en $E_k$ , para algún $k$ entre $1,\cdots,n$ , se le asigna $y_k$ . Lo bueno de esta definición es que se puede "ir hacia atrás" y averiguar, dado un valor de la función $\phi_n(x)$ , de qué conjunto proviene ese $x$ , es decir: $\displaystyle {\phi_n}^{[-1]}(y_k) = {\phi_n}^{[-1]}\big(\{y_k\}\big) = E_k$ lo que hace que para el conjunto de todos los poibles valores se tenga $\displaystyle {\phi_n}^{[-1]}\big(\{y_k\;\big/\; k=1,\cdots , n\}\big) = \bigcup_{k=1}^n \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_k $ . Estos conjuntos elementales $E_k$ se tienen que contruir de una manera que luego nos faciliten la cuentas, ya que estamos intentando aproximar la integral de una función $f(x)$ genérica por la de una función escalonada $\phi_n(x)$ contruida a partir de dichos conjuntos elementales $E_k$ . Los conjuntos de la forma $\displaystyle E_k = \Big\{ x\in\Omega \;\big/\; f(x)=y_k \in \mathbb{R} \Big\} \subseteq\bigcup_{k=1}^n \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_k \subseteq \Omega $ nos pueden dar problemas. Por ejemplo, la función seno, $\operatorname{sen}(x)$ , toma cualquier valor, $1$ por ejemplo, en puntos separados, es decir en intervalos unipuntuales. ¿Cuánto mide de ancho un punto? Nada, cero. Por ello la medida de todos esos conjuntos puede ser $0$ y no nos puede decir mucho. Recordemos que la integral se puede entender como una forma de medir áreas, que solemoss hacer por medio de rectángulos usualmente, donde se necesita una base y una altura. Si las bases son todas $0$ nos daría una área $0$ .

Dada una sucesión $\{y_n\}_{n=0}$ de números positivos, voy a definir y acuñar yo dos familias de conjuntos elementales que nos van a ayudar. Estos conjuntos están prediseñados para poder usar la Desigualdad de Chebyshov ( [Чебышёв - Čebyšëv]) o con la misma idea que esta:
Los conjuntos elementales de Riemann-Lebesgue o conjuntos elementales asociados de Lebesgue , que nos permitirán contruir la integral de Lebesgue coon una idea análoga a la de Riemann. $$ E_n = \Big\{ x\in\Omega \;\big/\; 0\leqslant\big|f(x)-y_n\big|\lneq\varepsilon \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega $$
Función $\phi_n(x)$ creada con los conjuntos elementales de Riemann-Lebesgue



Los conjuntos elementales de Darboux-Lebesgue o conjuntos elementales superiores e inferiores de Lebesgue , que nos permitirán contruir la integral de Lebesgue coon una idea análoga a la de Darboux. $$ E_n = \Big\{ x\in\Omega \;\big/\; y_n\gneq\big|f(x)\big|\geqslant y_{n-1} \Big\} \subseteq\bigcup_{n=1} \hspace{ -10.125pt }\raise-1.2ex\hbox{|} \hspace{ 2.5mm }E_n \subseteq \Omega$$
Función $\phi_n(x)$ inferior creada con los conjuntos elementales de Darboux-Lebesgue

Función $\phi_n(x)$ superior creada con los conjuntos elementales de Darboux-Lebesgue


 
Con esta contrucción de los conjuntos $E_n$ se puede definir la función $\phi_n(x)$ y su integral, que al ser los conjuntos disjuntos nos facilitan muchas cuentas: $$ \phi_n(x) \overset{\text{def}}{=} \sum_{n\in\mathbb{N}_0} y_n \chi\raise-.5ex\hbox{}_{E_n}(x) \implies \int\limits_{\bigcup \hspace{ -6.5pt }\raise-.5ex{\scriptsize | } \hspace{3pt} E_n} \!\! \phi_n \,\text{d}\mu \triangleq \sum_{n\in\mathbb{N}_0} y_n \, \mu(E_n) $$ Refinando los elementos en la secuencia $\{y_n\}_{n=0}$ o refinando el valor de $\varepsilon$ se llega a una función que cada vez dista tan poco como queramos. Recordamo que no hemos hablado de distancia, y que ningún artículo de este blog pretende ser un sustituto de ninguna asignatura. Al final pretendemos crear una sucesión de funciones escalonadas tal que $\displaystyle \lim_{n\to\infty}\phi_n(x) \triangleq f(x)$ ya que se pueden construir funciones $\phi(x)$ tales que $\phi(x) \underset{\mu\text{ae}}{\overset{\text{def}}{=}} f(x) $ ( $\phi$ se define para que sean igual casi siempre a $f$ ), lo que implica $\displaystyle \int\limits_I \! \phi \,\text{d}\mu \triangleq \int\limits_I \! f\,\text{d}\mu \iff \int\limits_I \! \big| f-\phi\big| \,\text{d}\mu \triangleq 0 $ . En la próxima entrada veremos cómo hallar dichas integrales.

 
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

martes, 21 de septiembre de 2021

(701) - Función característica [indicatriz] y función simple (con GIFs descargables)

Veamos primero de dónde viene el nombre de esta función y luego lo relacionaremos con qué hace: El nombre de característica viene de carácter, del latín character, y este del griego antiguo χᾰρᾰκτήρ - khărăktḗr «sello, seña, instrumento para grabar», derivado de χᾰρᾰ́σσω - khărắssō «yo afilo, hago una incisión, marco, acuño, escribo», (por eso se escribe con la letra griega $\chi$) ya que esta función da el carácter de cierto conjunto. Veamos cómo actúa: $$\begin{array}{ cccc }
\chi\raise-.5ex\hbox{|}_A : & \Omega & \longrightarrow & \{0,1\}\subsetneq\mathbb{R}\\
& x & \longmapsto & \displaystyle \begin{matrix} 0 & \big| & x\not\in A \subseteq \Omega \\ 1 & \big| & x\in A \subseteq \Omega \end{matrix}
\end{array}$$ Es decir, la función característica necesita un conjunto $A$ sobre del que tener una referencia a la hora de evaluar: para cada valor de $x$ en un supraconjunto (conjunto universal) $\Omega$ comprueba si está o no en $A$ , donde $A\subseteq\Omega$ . Según la respuesta a esta pregunta de sí/no devuelve $1$ o $0$ respectivamente.
En contextos de probabilidad y estadística se suele llamar función indicatriz (o indicadora) ya que indica, dice, afirma o niega que un elemento $x$ esté o no en el conjunto $X$ , por lo que se suele escribir como $\mathbf{1}_X$ o $\operatorname{I}_X$ . Del hecho de que nos devuelva $\text{NO,YES}$ hace, ya fuere por su genialidad o por su utilididad, que se use mucho en informática y en lógica booleana. $$\begin{array}{ cccc }
\mathbf{1}_X \; , \;\operatorname{I}_X : & \Omega & \longrightarrow & \big\{\text{NO,YES}\big\} \\
& x & \longmapsto & \displaystyle \begin{matrix} \text{NO} & \big| & x\not\in X \subseteq \Omega \\ \text{YES} & \big| & x\in X \subseteq \Omega \end{matrix}
\end{array}$$ Sin embargo, puede ser que no nos interese que la función nos devuelva los valores $\{0,1\}$ , sino que nos interesa que en un conjunto $A$ nos devuelva un valor determinado, $a$ (cuando pertenezca a dicho conjunto). Con esta premisa solo hay que reescalar la función característica, que llamamos función escalonada, pues hay un escalón en el conjunto $A$ , con una posible discontinuidad en $\operatorname{Fr}(A)$ : $$\begin{array}{ cccc }
a\chi\raise-.5ex\hbox{|}_{A} : & \Omega & \longrightarrow & \big\{0,a\big\}=a\{0,1\}\subsetneq\mathbb{R}\\
& x & \longmapsto & \displaystyle \begin{matrix} 0 & \big| & x\not\in A \subseteq \Omega \\ a & \big| &x\in A \subseteq \Omega \end{matrix}
\end{array}$$
El campo eléctrico como $E(t) = a\, \chi\raise-.5ex\hbox{|}_{A}(t)$ con $A$ unión de intervalos


Es más, se puede usar una técnica muy similar a esta para definir una sucesión de conjuntos, $\displaystyle \{A_k\}_{k=1}^n$ , donde una función $f(x)$ tome en cada instancia un valor determinado, $a_k$ : $ A_k \overset{\text{def}}{=} \Big\{ x\in\Omega \;\big/\; f(x)=a_k \in \mathbb{R} \Big\} \subseteq \Omega $ , creando así una función escalonada.
Una vez ya con dichos conjuntos uno puede aproximar una función $f(x)$ mediante la suma de sendas funciones características reescaladas (escalonada): $$\begin{array}{ cccc }
\displaystyle \sum_{k=1}^n y_k \chi\raise-.5ex\hbox{|}_{E_k} : & \Omega & \longrightarrow & \{0\}\cup\big\{y_k\big/ k=1,\cdots , n \big\} \subsetneq\mathbb{R} \\
& x & \longmapsto & \displaystyle \begin{matrix} 0 & \big| & x\not\in \displaystyle \bigcup_{k=1}^n \hspace{ -9.25pt }\raise-1.2ex\hbox{|} \hspace{ 5pt }E_k \subseteq \Omega \\ y_k & \big| & x\in E_k \subseteq \displaystyle \bigcup_{k=1}^n \hspace{ -9.25pt }\raise-1.2ex\hbox{|} \hspace{ 5pt }E_k \subseteq \Omega \end{matrix}
\end{array}$$ Es más, los conjuntos $\displaystyle E_k \overset{\text{def}}{=} \Big\{ x\in\Omega \,\big/\, f(x)=y_k \in \mathbb{R} \Big\} \subseteq \bigcup_{k=1}^n \hspace{ -9.25pt }\raise-1.2ex\hbox{|} \hspace{ 5pt }E_k \subseteq \Omega $ , son disjuntos de forma que en dicha suma habrá al menos $(n-1)$ sumandos nulos, $0$ , y un posible sumando distinto de $0$ , ya que al ser disjuntos los conjuntos, si $\displaystyle x\in\bigcup_{k=1}^n \hspace{ -9.25pt }\raise-1.2ex\hbox{|} \hspace{ 5pt }E_k$ , entonces $x$ está en un único conjunto $E_k$ . El hecho de que los conjuntos sean disjuntos nos ayuda a la hora de futuras demostraciones y definiciones, y también para poder visualizarlo. Las funciones escalonadas que se escriben como una suma de características reescaladas (escalonadas), pero de intervalos disjuntos reciben el nombre de funciones simples.
Sucesión de funciones simples

Esta es solo una breve introducción a la función característica y a cómo aproximar una función $f(x)$ como suma de funciones de características, que es de lo que tratará el próximo artículo en una mayor profundidad.




Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

miércoles, 26 de mayo de 2021

(691) - El origen numérico de los logaritmos (con Teoría de Grupos)

Ya vimos en una entrada pasada cómo se propuso la prostaféreis, un algoritmo para agilizar el producto, pero aún así era muy costoso, largo, y tedioso. Por ejemplo, para calcular el producto de cinco números había que aplicarlo por lo menos tres veces con las sucesivas pérdidas de precisión en cada iteración. El matemático escocés John Napier of Merchinston ($1550-1617$) se le ocurrió una forma mejor. En términos modernos se puede imaginar su idea como buscar una aplicación $\psi$ que transformase un producto de elementos $xy$ del dominio en una operación $\star$ de sendas imágenes [de los factores]: un producto se convertía en operación computacionalmente mucho más fácil, $\star$ [luego veremos por cuál se decantó].

La aplicación satisface: $\psi(k\,xy) = \psi(x)\star\psi(y)$ para alguna constante $k$ , que se puede entender como un parámetro de reescala.
Para proceder se usarían los valores tanto $\psi(x)$ como $\psi(y)$ para hacer $\psi(x)\star\psi(y)=\psi(k\,xy)$ , y luego ver el qué argumento da $\psi(k\,xy)$ . Así pues solo hay que tener tabulado los valores $x\overset{\psi}{\mapsto}\psi(x)$ además de $y\overset{\psi}{\mapsto}\psi(y)$ (las búsquedas directas), asimismo como $\psi(k\, xy)\overset{\psi^{[-1]}}{\longmapsto} xy$ (la búsqueda inversa). El lector habitual del blog verá la rápida conexión con la prostaféresis.
 
Ya que el producto es conmutativo, la operación $\star$ también lo es: $$ \psi(k\,xy) = \psi(k\,yx) \implies \psi(x)\star\psi(y)=\psi(y)\star\psi(x) $$ Veamos que a su vez como el producto es asociativo, la operación $\star$ también lo es [usar $k^2$ sigue siendo un parámetro para simplificar resultados]: $$ \psi(k^2\,xyz) = \left\{ \begin{matrix} \psi(k\, (kxy)z) & = & \psi(kxy) \star\psi(z) & = & \big(\psi(x)\star\psi(y)\big)\star\psi(z)\\= & & = & & = \\\psi(k\, x(kyz)) & = & \psi(x) \star\psi(kyz) & = & \psi(x)\star\big(\psi(y)\star\psi(z)\big)\\ \end{matrix} \right.$$ Veamos cómo la operación $\star$ tiene un elemento neutro, $\psi(k^{-1})$ : $$ \psi(k\,tk^{-1})=\psi(t) = \psi(t)\star\psi(k^{-1}) = \psi(k^{-1})\star\psi(t)$$ Veamos ahora cómo todo elemento $\psi(t)$ tiene un elemento inverso $\psi(k^{-2}t^{-1})$ con la operación $\star$ [dada la conmutatividad de antes es tanto el inverso por la izquierda como por la derecha]: $$\psi(k\;t\,k^{-2}t^{-1})=\psi(k^{-1}) = \psi(t)\star\psi(k^{-2}t^{-1}) = \psi(k^{-2}t^{-1})\star\psi(t)$$ Sobre la aplicación $\psi$ queremos que sea inyectiva (elementos distintos tienen imágenes distintas), y además que sea biyectiva para que no haya problemas a la hora de multiplicar (que nos diera un posible producto erróneo). $$\begin{array}{ cccc }
\psi : & \mathbb{K}_1 & \longrightarrow & \mathbb{K}_2\\[2.5ex]
& t & \longmapsto & \psi(t) \\[8pt]
& k\,x_1\cdot x_2 & \longmapsto & \begin{matrix} \psi(x_1) & \star & \psi(x_2) \\ =&&= \\ y_1 & \star & y_2 \end{matrix}
\end{array} \qquad \begin{array}{ cccc }
\psi^{[-1]} : & \mathbb{K}_2 & \longrightarrow & \mathbb{K}_1 \\[2.5ex]
& z & \longmapsto & \psi^{[-1]}(z) \\[8pt]
& y_1 \star y_2 & \longmapsto & \begin{matrix} k & \psi^{[-1]}(y_1) & \cdot & \psi^{[-1]}(y_2)\\ & =&&= \\ k & x_1 & \cdot & x_2 \end{matrix}
\end{array}$$ Donde $\cdot$ es el producto usual en $\mathbb{K}_1$ , mientras que $\star$ es nuestra operación en $\mathbb{K}_2$ . La operación $\star$ realmente puede ser cualquiera que satisfaga las propiedades descritas, por lo que Napier usó $\star$ como la suma usual (según cuál se tome, cambia cómo es $\psi$ , por ejemplo con la suma se tiene que $\psi(k^{-1})=0$ para el neutro y $\psi(k^{-2}t^{-1})=-\psi(t)$ para el inverso). Llamó a su aplicación $\psi$ como logarithmus en latín, del griego antiguo λόγος (lógos) “palabra, razón” y ἀριθμός (arithmós) “número” , muy similar a la construcción número racional (también del latín) pero aquí el apellido racional indicando “razonadamente, con una razón de ser”. Napier definió su logaritmo $\operatorname{logN}$ : $$ n = 10^7\,\big(1-10^{-7}\,\big)^L \overset{\triangle}{\iff} L\overset{\text{def}}{=}\operatorname{logN} n$$ La relación entre el logaritmo de Napier , $\operatorname{logN}$ , y el logaritmo natural, $\ln$ , es: $$ \operatorname{logN} n \triangleq \frac{\displaystyle \ln\left(\frac{n}{10^7}\right)}{\ln\big(1-10^{-7}\,\big)} \iff \ln n \triangleq \ln\big(1-10^{-7}\,\big)\operatorname{logN} n + 7\ln 10$$ Es más, ambos para algún $n$ toman el mismo valor, $\displaystyle \frac{7\ln10}{1-\ln(1-10^{-7}\,)}$ . De esto se deducen las propiedades $$\begin{matrix} \displaystyle \operatorname{logN}\sqrt{x_1x_2\;} & = & \displaystyle \frac{\operatorname{logN}x_1+\operatorname{logN}x_2}{2} \\[3pt] \displaystyle \operatorname{logN}\big(10^{-7}x_1x_2\big) & = & \displaystyle \operatorname{logN}x_1+\operatorname{logN}x_2 \\[5pt] \displaystyle \operatorname{logN}\bigg(10^7\sqrt{\frac{x_1}{x_2}\;}\,\bigg) & = & \displaystyle \frac{\operatorname{logN}x_1-\operatorname{logN}x_2}{2} \\[3pt] \displaystyle\operatorname{logN}\Big(10^7\frac{x_1}{x_2}\Big) & = & \displaystyle \operatorname{logN}x_1-\operatorname{logN}x_2 \end{matrix}$$ Nótese que el logaritmo de Napier no satisface exactamente esas propiedades tan directas de los logaritmos a las que estamos muy habituados, en parte por la presencia de esa constante $10^{-7}$ . Unos pocos años después, Henry Briggs ($1561-1630$) simplifició en gran medida el trabajo de de Napier, creando el logaritmo briggsiano o común [decimal], $\log_{10}$ o también $\lg$ . Con este mero cambio, se popularizó muchísimo más el trabajo de Napier al hacerse más intuitivo, pues el logaritmo decimal de un número se puede entender como el número de cifras que tiene en su representación decimal (y las cifras del número original por cómo está entre dos unidades contiguas en una escala logarítmica decimal).
Ahora el algortimo para multiplicar $xy$ ha pasado a consultar los valores de $\log(x)$ además de $\log(y)$ [independientemente de la base], calcular $\log(x)+\log(y)$ y consultar en una búsqueda inversa el valor de $\operatorname{antilog}\big(\log(x)+\log(y)\big)$ (con respecto a la misma base que antes, siendo $\operatorname{antilog}$ la función antilogaritmo, es decir, la aplicación inversa al logaritmo). $$ xy = x\cdot y \iff xy = \operatorname{antilog}\big(\log(x)+\log(y)\big) $$ Es más, esto no se complica innecesariamente comparado con la prostaféresis, ya que: $$\prod_{k=1}^n x_k = x_1\cdot\ldots\cdot x_n \iff \prod_{k=1}^n x_k = \operatorname{antilog}\left(\sum_{k=1}^n\log(x_n)\right) $$ Que es una forma muy efectiva, útil y rápida para programar la función factorial, $x!$ , en algunos lenguajes como $R$ . Un pequeño esquema de lo que planteamos es: $$ \begin{matrix} \{x,y\} & \longrightarrow & x\cdot y \\ \underset{\text{Logartimo}}{\Downarrow} & & \underset{\text{Antilogaritmo}}{\Uparrow} \\ \big\{\log(x),\log(y)\big\} & \overset{\text{Suma}}{\implies} & \log(x)+\log(y) \end{matrix} $$ Para multiplicar varios números es mucho más efectivo usar logaritmos:
  • Para multiplicar números usando el algoritmo logarítmico, primero se hace una búsqueda directa de los logaritmos de los factores en tablas, se calcula su suma total, y por último con una búsqueda inversa se tiene el producto.
  • Para multiplicar números usando el algoritmo prostaferético, primero hay que hacer parejas y aplicar el algoritmo para cada una de las parejas (si hay un número impar de factores se omite uno y se lo lleva directamente a la próxima etapa), ahora hay que volver a hacer parejas con los productos intermedios y así recursivamente hasta que se llega al producto final.
Para multiplicar dos números en prostaféresis hay que hacer primero dos búsquedas inversas, una suma y una resta, dos búsquedas directas, y por último una suma y dividir entre $2$ , mientras que con logaritmos solo hay que hacer primero dos búsquedas directas, una suma, y por último una búsqueda inversa.


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.