viernes, 2 de abril de 2021

(683) - Polinomios logarítmicos y series logarítmicas

Supongamos que tenemos un número $x$ y queremos saber de qué número $t$ es su logaritmo [natural], $x=\ln(t)$ : sería tan fácil como hallar $t=e^x$ . Sin embargo, supongamos que tenemos una calculadora muy básica que solo suma, resta, divide y multiplica; no tiene necesariamente potencias y el número $e$ ni está, la típica calculadora en cotabilidad. ¿Cómo hallaríamos la solución? La solución viene dado por una serie de polinomios logarítmicos (donde podemos obtener el grado de aproximación que queramos con una suma parcial): $$\sum_{n=0}^\infty \frac{1}{n!}\ln^n(x) = x \qquad \sum_{n=0}^\infty \frac{(-1)^n}{n!}\ln^n(x) = \frac{1}{x}$$ Es más, siguiendo este resultado, uno puede ver cómo expresar cualquier polinomio “clásico” de grado $N$ , $P_N(x)$ , con coeficientes $\big(a_k\big)_{k=0}^N$ , como un polinomio logarítmico_$$P_N(x) = \sum_{k=0}^N a_k x^k = \sum_{k=0}^N a_k \sum_{n=0}^\infty \frac{k^n}{n!}\ln^n(x) = \sum_{n=0}^\infty \frac{\ln^n(x)}{n!}\sum_{k=0}^N a_k k^n$$ ¿Cómo se obtienen estas relaciones? Muchas se sacan usando series de Taylor y sustituyendo $x\mapsto\ln(t)$ . Por ejemplo si tomamos la del coseno y seno hiperbólicos:
$$\sum_{n=0}^\infty \frac{1}{(2n)!}\ln^{2n}(x) = \frac{x^2+1}{2x} \qquad \sum_{n=0}^\infty \frac{1}{(2n+1)!}\ln^{2n+1}(x) = \frac{x^2-1}{2x}$$Es más, siquiendo este razonamiento uno puede hallar una expresión cerrada en términos únicamente de logaritmos del logaritmo integral: $\displaystyle \operatorname{li} \overset{\text{def}}{=}―\hspace{-11.5pt}\int_0^x \frac{1}{\ln t} \;\text{d}t$ a través de la expresión $\operatorname{li}(x)\triangleq\operatorname{Ei}\big(\ln(x)\big)$ , de una función íntimamente relacionada, la exponencial integral $\displaystyle \operatorname{Ei}(x) \overset{\text{def}}{=}―\hspace{-11.5pt}\int_{-\infty}^x\frac{e^t}{t}\;\text{d}t$ : $$\operatorname{li}(x) = \gamma+\ln\!\big|\!\ln(x)\big| + \sum_{n=1}^\infty \frac{1}{n \, n!}\ln^n(x)$$ Uno puede ver fácilmente que lo que hemos estado haciendo hasta hora es buscar expresiones “bomitas” que tengan alguna exponencial de por medio, y haciendo un cambio de variable tontorrón obtenemos expresiones en términos que nos interesan, es decir, pasamos de series polinómicas en $ \mathbb{R}[x]$ tras un cambio de variable a series polinómicas logarítmicamente en $ \mathbb{R}\big[\ln(t)\big] \cong \mathbb{R}[x]/(t-e^x) \cong \mathbb{R}[x]/\big(\ln(t)-x\big) $ . Es más, $\big\{ \ln^k(t) \big\}_{k=0}^N$ conforman una base de $\mathbb{C}_N\big[\ln(t)\big]$ para cualquier $N$ .
Además esto es tan importante que en notación asitótica si uno pone una virgulilla, $ \widetilde{\mathcal{O}} , \widetilde{ {\scriptstyle \mathcal{O}} }, \widetilde{\Omega},\cdots$ , significa que no está acotado por dicha función como tal sino como dicha función por la $\alpha$-ésima potencia del logaritmo de dicha función para algún $\alpha$ , es decir: $$g(x) \in \widetilde{\mathcal{O}}\Big(f(x)\Big) \!\overset{\;\Delta}{\iff} g(x) \in \mathcal{O}\Big(f(x)\,\ln^\alpha\!\!\big(f(x)\big)\Big) \\ g(x) \in \widetilde{{\scriptstyle \mathcal{O}}}\Big(f(x)\Big) \!\overset{\;\Delta}{\iff} g(x) \in {\scriptstyle \mathcal{O}}\Big(f(x)\,\ln^\alpha\!\!\big(f(x)\big)\Big) \\ g(x) \in \widetilde{\Omega}\Big(f(x)\Big) \!\overset{\;\Delta}{\iff} g(x) \in \Omega\Big(f(x)\,\ln^\alpha\!\!\big(f(x)\big)\Big)$$ Veamos dos ejemplos
  1. El algoritmo bitonic sort tiene un coste operacional de $\widetilde{\mathcal{O}}(n)$ , en particular, de $\mathcal{O}\Big(n\ln^2(n)\Big)$ .
  2. El estimador de medianas repetidas (Spiegel): por fuerza bruta tiene un coste operativo de $\mathcal{O}(n^2) \subsetneq \widetilde{\mathcal{O}}(n^2)$ ; usando téctinas sofisticadas, $\mathcal{O}\big(n \ln^2(n)\big) \subsetneq \widetilde{\mathcal{O}}(n)$ ; en tiempo esperado randomizado, $\mathcal{O}\big(n \ln(n)\big) \subsetneq \widetilde{\mathcal{O}}(n)$ ; pero en un algoritmo on-line con un tiempo de actualización $\mathcal{O}\big(n\big) \subsetneq \widetilde{\mathcal{O}}(n)$ .
Un alumno de matemáticas ya se estará preguntando cómo aplicar esto y a raíz de qué sale este artículo. El Teorema de Aproximación polinómica de Weierstraß nos asegura que para una función continua $f(x)$ en el compacto $I=[a,b]\subset\mathbb{R}$ existe una sucesión de polinomios “clásicos” $ \big\{P_n(x)\big\}_{n=1}^\infty$ que converge uniformemente en $I$ hacia $f(x)$ (se pueden tomar una subsucesión de estos polinomios “clásicos” para que sean de grado ascendente estrictamente) . En particular, dado $\varepsilon > 0$ , existe un polinomio “clásico” $P(x)$ tal que: $$\Big|f(x) − P(x)\Big| < \varepsilon \qquad \forall x\in I=[a,b]$$ Es decir, que si repetimos el cambio de variable $x\mapsto\ln(t)$ , y denotando $\varphi(t) = f\big(\ln(t)\big) = \big(f\circ\ln\big)(t) $ $$\Big|\varphi(t) − P\big(\ln(t)\big)\Big| < \varepsilon \qquad \forall t\in J=e^I=\big[e^a,e^b\big] \iff \ln(t)\in I$$ El razonamiento que hemos hecho aquí es muy similar al que se suele hacer para introducir los polinomios trigonométricos, sin embargo, en estos últimos se sustituía la $n$-ésima potencia por el $n$-ésimo armónico (ya que el $n$-ésima potencia se podía escribir como una suma de los $k$-ésimos armónicos con $k=1,\cdots,n$ y es más fácil entender y trabajar con una onda como suma de armónicos) . Con los logaritmos no podemos hacer lo mismo ya que $\log(ab)=\log(a)+\log(b)$ por lo que tenemos que $ \big\{ \ln(kt) \big\}_{k=1}^N \cong \{1\} \cup\hspace{ -6.5pt }\raise-.25ex{\shortmid}\hspace{3pt} \{\ln t\}$ . Como último comentario hay ciertas propiedades compartidas: tanto la serie de Taylor de un polinomio “clásico” como la serie de Fourier de un polinomio trigonométrico tienen un número finito de términos, asimismo con un polinomio logarítmico con su expansión logarítmica. Sin embargo, si bien la derivada y/o la integral de un polinomio “clásico” y de un polinomio trigonométrico siguen siendo un polinomio “clásico” y de un polinomio trigonométrico (respectivamente), no se conserva para polinomios logarítmicos: $$ \frac{\text{d}}{\text{d}x} \ln^N(x) = N\frac{\ln^{N-1}(x)}{x} \qquad \int \ln^N(x)\;\text{d}x = x\sum_{k=0}^N (-1)^{N-k} \frac{N!}{k!}\ln^k(x)$$ Las series logarítmicas tienen un estudio en el intervalo $t\in\left[\frac{1}{e},e\right]\implies\ln(t)\in[-1,1]$ muy útil y fácilmente manejable (tipos de convergencia): $$\Bigg| \sum_{n=0}^\infty \lambda_n \ln^n(x) \Bigg| \leqslant \sum_{n=0}^\infty \Big|\lambda_n \ln^n(x) \Big| \leqslant \sum_{n=0}^\infty |\lambda_n |$$ Como curiosidad, se puede expresar la exponencial, $e^t$ , como una doble serie logarítmica. Es más, si una función tiene desarrollo de Taylor, se puede expresar como una serie logarítmica: $$e^t = \sum_{n=0}^\infty \frac{1}{n!} \sum_{k=0}^\infty \frac{n^k}{k!} \ln^k(t)$$

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

(677) - Aztecas, mayas y galos - Sistema de numeración vigesimal (Base 20)

Estamos en el año $2021$ después de Jesucristo. Toda Europa está ocupada por el sistema decimal… ¿Toda? ¡No! Una aldea poblada por irreductibles galos resiste, todavía y como siempre, al invasor. [...]
Recordemos primero que uno y uno son dos independientemente de la lengua en la que nos comuniquemos y del sistema de numeración que usemos. Uno y uno son dos siempre y lo son independientemente de y en este artículo. Otra cosa es cómo representemos “$1$” o “$2$” y cómo veamos las asociaciones de los números a la hora de ordenarlos y organizarlos (decena, docena, quincena, veintena,...) El otro día un profesor mío, resolviendo un problema en el que descomponíamos un número según su expresión decimal, dijo -¿Por qué usamos el sistema decimal? [Extendió sus manos] Porque tenemos diez dedos.
Esta afirmación, obviando amputados y polidáctiles, es cierta aunque subjetiva a la cultura: realmente en español uno tiene $20$ dedos, pero en inglés los pulgares (thumbs) no se consideran dedos de la mano (fingers) que distinguen claramente de los dedos de los pies (toes). Entonces, ¿por qué no usan o bien un sistema de numeración binario ($\{0,1\}$) o bien uno octal ($\{0,1,2,3,4,5,6,7\}$)? Es más, si usamos un sistema decimal, $10$ , ¿por qué usamos uno duodecimal, $12$ , para contar huevos y agujas? Es decir, ¿por qué usamos docenas y gruesas (docenas de docenas) y no todo en la misma base? Es una pregunta difícil. En Tagalo (lengua mayoritaria en Filipinas), por ejemplo, se utilizan los números en español para las horas y temas de dinero, mientras que usan los numerales prehispánicos para el resto de cosas. Incluso, hay lenguas en Papúa Nueva Guinea que usan un sistema de numeración ternaria, $3$ , para contar ciertos objetos, mientras que utilizan uno cuaternario, $4$ , para otros.

Veamos tres culturas con sistemas de numeración vigesimal, $20$ : la azteca (nativa del valle de México-Anáhuac), la maya (nativa de la Península del Yucatán), ambas de Mesoamérica, y los celtas galos, de la Galia. Los galos usaban un sistema de numeración vigesimal, que pervivió a la conquista romana. Es más, todavía se pueden ver vestigios en francés (aunque en Bélgica y Suiza han desaparecido las formas vigesimales por otras decimales). Veamos una comparación:
$$ \begin{matrix} \text{Número} & \text{Azteca (Náhuatl Clásico)} & \text{Maya yucateco} & \text{Francés} \\ 0 & - & - & \text{zéro} \\ 1 & \text{ce} & \text{hun} & \text{un} \\ 2 & \text{ōme} & \text{ka’ah} & \text{deux} \\ 3 & \text{ēyi} & \text{óox} & \text{trois} \\ 4 & \text{nāhui} & \text{kan} & \text{quatre} \\ 5 & \text{mācuīlli} & \text{ho’} & \text{cinq} \\ 6 & \text{chicuace} (5 \& 1) & \text{wak} & \text{six} \\ 7 & \text{chicōme} (5 \& 2) & \text{uk} & \text{sept} \\ 8 & \text{chicuēyi} (5 \& 3) & \text{waxak} & \text{huit} \\ 9 & \text{chiucnāhui} (5 \& 4) & \text{bolon} & \text{neuf} \\ 10 & \text{mahtlāctli} & \text{lahun} & \text{dix} \\ 11 & \text{mahtlāctli once} (10 \& 1) & \text{buluk} (9\& 2) & \text{onze} \\ 12 & \text{mahtlāctli omōme} (10 \& 2) & \text{lahkaʼa} (10\& 2) & \text{douze} \\ 13 & \text{mahtlāctli omēyi} (10 \& 3) & \text{óox lahun} (3\& 10) & \text{treize} \\ 14 & \text{mahtlāctli onnāhui} (10 \& 4) & \text{kan lahun} (4\& 10) & \text{quatorze} \\ 15 & \text{caxtōlli} & \text{ho’ lahun} (5\& 10) & \text{quinze} \\ 16 & \text{caxtōlli once} (15 \& 1) & \text{wak lahun} (6\& 10) & \text{seize} \\ 17 & \text{caxtōlli} (15 \& 2) & \text{uk lahun} (7\& 10) & \text{dix-sept (10 & 7)} \\ 18 & \text{caxtōlli omōme} (15 \& 3) & \text{waxak lahun} (8\& 10) & \text{dix-huit (10 & 8)} \\ 19 & \text{caxtōlli onnāhui} (15 \& 4) & \text{bolon lahun} (9\& 10) & \text{dix-neuf (10 & 9)} \\ 20 & \text{cempōhualli} (1\cdot 20^1) & \text{hun kʼáal} (1\cdot 20^1) & \text{vingt} \\ 40 & \text{ōmpōhualli} (2\cdot 20^1) & \text{ka’ kʼáal} (2\cdot 20^1) & \text{quarante} \textit{(*deux vins)} \\ 60 & \text{ēyipōhualli} (3\cdot 20^1) & \text{óox kʼáal} (3\cdot 20^1) & \text{soixante} \textit{(*trois vins)} \\ 80 & \text{nāppōhualli}(4\cdot 20^1) & \text{kan kʼáal} (4\cdot 20^1) & \text{quatre-vingts} (4\cdot 20^1) \\ 100=10^2 & \text{mācuīlpōhualli} (5\cdot 20^1) & \text{ho’ kʼáal} (5\cdot 20^1) & \text{cent} \\ 400= 20^2 & \text{centzontli} (1\cdot 20^2) & \text{hun bak} (1\cdot 20^2) & \text{quatre-cents} \\ 8.000= 20^3 & \text{cenxiquipilli} (1\cdot 20^3) & \text{hun pik} (1\cdot 20^3) & \text{huit-mil} \\ 160.000= 20^4 & \text{cempōhualxiquipilli} (1\cdot 20^1\cdot 20^3) & \text{hun calab} (1\cdot 20^4) & \text{cent soixante mille} \\ 3.200.000 = 20^5 & \text{centzonxiquipilli} (1\cdot 20^2\cdot 20^3) & \text{hun kinchil} (1\cdot 20^5) & \text{trois millions deux cent mille} \\ 64.000.000= 20^6 & \text{cexiquipilxiquipilli} (1\cdot 20^3\cdot20^3 ) & \text{hun alau} (1\cdot 20^6) & \text{soixante quatre millions} \\ 1.280.000.000= 20^7 & \textit{centzontltzonxiquipilli} (1\cdot 20^2\cdot20^{2+3}) & \text{hun hablat} (1\cdot 20^7) & \text{un milliard deux cent quatre-vingts millions} \\ \end{matrix} $$ La palabra en nahuált para $20^6$ lo he visto como cempōhualtzonxiquipilli, $1\cdot 20^1\cdot20^{2+3}$ , o como cexiquipilxiquipilli , $1\cdot 20^3\cdot20^3$ . Se forma similar en español se tiene diez ($10^1$), cien ($10^2$), mil ($10^3$), diez mil ($10^4$), cien mil ($10^5$), millón ($10^6$), y algunos que ya suben drásticamente de órdenes de magnitud como millardo ($10^9$), billón ($10^{12}$), billardo ($10^{15}$), trillón ($10^{18}$), …
La lengua y la cultura afecta a cómo nos comunicamos, por ejemplo en lengua azteca «ciempiés» es “centzommāyeh” que significa «el que tiene $400$ brazos/manos».
El sistema de numeración vigesimal necesita $20$ cifras diferentes para representar cualquier número (de ahí su nombre), que normalmente usa $\{0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F,G,H,I,J\}$ . Lo bueno de tener un sistema de numeración vigesimal es que se suelen necesitar menos cantidad de cifras que en uno decimal para representar el mismo número (y que $20$ tiene más divisores que $10$, por lo que entre otras cosas uno puede dividir $20$ entre $4$ con resto $0$ , pero no puede hacer lo mismo con $10$, es decir, con base $20$ uno puede sibdividir en grupos de $4$ y con base $10$ , no ), por ejemplo $2021=2\cdot10^3+0\cdot10^2+2\cdot10^1+1\cdot10^0=5\cdot20^2+1\cdot20^1+1\cdot20^0$ , por lo que ${2021}_{10}={511}_{20}$ (ambos números representan la misma cantidad, solo en diferente base de numeración, por ejemplo en binario sería ${11.111.100.101}_2$) .
Poder elegir una base correcta es muy útil según la situación, por ejemplo un veinteavo en base decimal es ${0\text{'}05}_{10}$ , mientras que en base vigesimal es ${0\text{'}1}_{20}$ (con la mitad de cifras tras la coma). Es más, un medio en sistema de numeración decimal es ${0\text{'}5}_{10}$ , en sistema vigesimal ${0\text{'}A}_{20}$ , y en sistema ternario ${0\text{'}\overline{1}}_{3}$ (que es periódico) , mientras que un tercio es en sistema de numeración decimal es ${0\text{'}\overline{3}}_{10}$ , en sistema vigesimal ${0\text{'}\overline{6D}}_{20}$ , y en sistema ternario ${0\text{'}1}_{3}$ (que no es periódico).
Elegir un sistema de numeración u otro al final viene a raíz de ver cuál es más útil a la hora de hacer ciertas cuantas, sobre todo divisiones. Normalmente se buscan números con muchos divisores pero no muy grandes (se suele por lo general evitar números primos medianos o grandes como $11,13,17,19,\cdots$ ya que solo son divisibles entre $1$ y sí mismos). Veamos algunos ejemplos: $$ \begin{matrix} D(2) & = & \{1,2\} \\ D(3) & = & \{1,3\} \\ D(10) & = & \{1,2,5,10\} \\ D(12) & = & \{1,2,3,4,6,12\} \\ D(20) & = & \{1,2,4,5,10,20\} \\ D(60) & = & \{1,2,3,4,5,6,10,12,15,20,30,60\} \\ D(100) & = & \{1, 2, 4, 5, 10, 20, 25, 50, 100\} \\ D(240) & = & \{1,2,3,4,5,6,8,10,12,15,16,20,24,30,40,48,60,80,120,240\} \\ D(252) & = & \{1, 2, 3, 4, 6, 7, 9, 12, 14, 18, 21, 28, 36, 42, 63, 84, 126, 252\} \\ D(960) & = & \{1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 16, 20, 24, 30, 32, 40, 48, 60, 64, 80, 96, 120, 160, 192, 240, 320, 480, 960\} \\ D(1.000) & = & \{1, 2, 4, 5, 8, 10, 20, 25, 40, 50, 100, 125, 200, 250, 500, 1.000\} \\ D(1.008) & = & \{1, 2, 3, 4, 6, 7, 8, 9, 12, 14, 16, 18, 21, 24, 28, 36, 42, 48, 56, 63, 72, 84, 112, 126, 144, 168, 252, 336, 504, 1.008\} \\ \end{matrix} $$ Para ponerlo un poco en contexto los ordenadores usan el binario, aunque algunos en los inicios usaron el ternario; el sistema decimal es al que estamos habituados, y en menor medida el duodecimal; el vigesimal tiene dos divisores más que el decimal y es sobre el que va este artículo. Los babilonios usaban el sistema sexagesimal (de ahí que los minutos y segundos vayan de $60$ en $60$); el de $240$ y $960$ se usaba más o menos en Gran Bretaña hasta $1971$ cuando la libra estaba dividida en $240$ peniques (a través de una libra $20$ chelines, y un chelín $12$ peniques) o en $960$ farthings (un penique $4$ farthings). Hasta el $\text{siglo XIX}$ a veces también se usaban las guineas (al cambio una guinea $21$ chelines, es decir, una libra y un chelín), tal que una guinea eran $252$ peniques o $1.008$ farthings. Dada las diferentes formas en las que se podía subdividir era muy útil, aunque no tan trivial poder pasar de una subunidad a una supraunidad (a no ser que el sistema de numeración que tuviesen para representar esos números también siguiera ese esquema). En parte por ello en $1971$ se decimalizó la libra esterñona pasando a $1$£$=100$p .

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

(673) - Alfabeto griego. Nombres y comandos en LaTeX

Esta entrada solo pretende poner en relación el alfabeto griego (de ahí el nombre ya que las primeras letras del "abecedario" helénico son alfa, $\alpha$ , y beta, $\beta$ ) y ponerlo en relación mayúsculas con minúsculas, su nombre en español, en griego clásico y sendos comandos en $\LaTeX{}$ . $$ \begin{matrix} \text{Mayúscula} & \text{Minúscula} & \text{Nombre} (\textit{Transliterado}) & \text{Comando }\LaTeX{} \\ \text{A} & \alpha & \text{alfa } (\textit{álpha}) & \backslash\text{alpha} \\ \text{B} & \beta & \text{beta } (\textit{bē̃ta}) & \backslash\text{beta} \\ \Gamma & \gamma & \text{gamma } (\textit{gámma}) & \backslash\text{gamma} \\ \Delta & \delta & \text{delta } (\textit{délta}) & \backslash\text{delta} \\ \text{E} & \epsilon , \varepsilon & \text{épsilon } (\textit{eî/è psilón}) & \backslash\text{epsilon} \\ \text{Z} & \zeta & \text{zeta } (\textit{zdē̃ta}) & \backslash\text{zeta} \\ \text{H} & \eta & \text{eta } (\textit{hē̃tta/ē̃ta}) & \backslash\text{eta} \\ \Theta & \theta & \text{theta } (\textit{thē̃ta}) & \backslash\text{theta} \\ \text{I} & \iota & \text{iota } (\textit{iō̃ta}) & \backslash\text{iota} \\ \text{K} & \kappa & \text{kappa } (\textit{káppa}) & \backslash\text{kappa} \\ \Lambda & \lambda & \text{lambda } (\textit{lámbda}) & \backslash\text{lambda} \\ \text{M} & \mu & \text{mu } (\textit{mȳ}) & \backslash\text{mu} \\ \text{N} & \nu & \text{nu } (\textit{nȳ}) & \backslash\text{nu} \\ \Xi & \xi & \text{xi } (\textit{xeî }) & \backslash\text{xi} \\ \text{O} & \text{o} & \text{ómicron } (\textit{oû/o micrón}) & \text{o} \\ \Pi & \pi & \text{pi } (\textit{peî}) & \backslash\text{pi} \\ \text{P} & \rho & \text{ro } (\textit{rhō̃̄ }) & \backslash\text{rho} \\ \Sigma & \sigma , \varsigma & \text{sigma } (\textit{sígma}) & \backslash\text{sigma} \\ \text{T} & \tau & \text{tau } (\textit{taū }) & \backslash\text{tau} \\ \text{Y} & \upsilon & \text{ípsilon } (\textit{ŷ/y psilón}) & \backslash\text{upsilon} \\ \Phi & \phi , \varphi & \text{fi } (\textit{pheî }) & \backslash\text{phi} \\ \text{X} & \chi & \text{ji } (\textit{kheî }) & \backslash\text{chi} \\ \Psi & \psi & \text{psi } (\textit{pseî }) & \backslash\text{psi} \\ \Omega & \omega & \text{omega } (\textit{ō̃̄/ō méga}) & \backslash\text{omega} \\ \end{matrix} $$ Recomendamos el uso de http://detexify.kirelabs.org/classify.html , que permite reconocer estos caracteres entre otros y nos da sendos comandos en LaTeX. Algunas letras reciben dos nombres; eso es debido a que el griego fue reduciendo el número de vocales y su longitud, por lo que fue necesario ir creando nuevos nombres para distinguir los sonidos, por ejemplo, los nombres (que surgieron en el griego koiné y bizantino) épsilon significa «e breve» e ípsilon «u breve» ya que había que distinguir ese fonema con el mismo que producían otros diagrafos. Otras podemos ver cómo la trasliteración del nombre helénico no coincide del todo con el nombre es español; esto es debido a que en español se suelen transcribir para que se asemeje lo más posible al griego, pero siguiendo las reglas fonéticas españolas.
Nuestro abecedario es una evolución del romano (con la separación medieval de Ii - Jj, Uu - Vv y con la aparición germánica de Ww). Posteriormente algunas lenguas han añadido algunas letras a sus variantes particulares del abecedario, como el español con la Ññ, o el portugués con Çç. El motivo por el que el alfabeto griego se parece tanto al abecedario latino es porque los etruscos adoptaron y adaptaron el alfabeto griego, y luego los romanos lo tomaron de los etruscos. Los romanos introdujeron la distinción entre Cc - Gg (en griego realmente no hay una letra Cc, pero sí está la káppa $K\kappa$, que evolucionó a nuestra ca Kk) , y mantuvieron letras que ya habían desparecido en griego como la Qq , Hh o la Vv .

Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

(661) - El algoritmo para multiplicar del siglo XVI. Prostaféresis (Producto de trigonométricas)

Los logaritmos son un invento matemático de princpios del $\text{siglo XVII}$ creados para agilizar la multiplicación. Sin embargo, no se empezaron a usar inmediatamente, al menos no hasta que Henry Briggs ($1561-1630$) simplificó el trabajo de John Napier of Merchiston ($1550-1617$), el inventor de los logaritmos neperianos. ¿Qué usaban antes? Hacer cuentas en un ábaco o a mano ya estaban presentes desde la Edad Media, pero no eran especialmente rápidas, o al menos para cálculos ágiles. Entonces, ¿qué utilizaban los ingenieros de Felipe II, Isabel I, Guillermo de Orange, o Soleimán el Magnífico para multiplicar llevando muchos números, de varias cifras, rápidamente y de una manera efectiva?

Los teoremas (o fórmulas) de seno y coseno de ángulo suma y diferencia son, en su formulación usual, matricial y compleja (que nos dicen que girar un ángulo de $\varphi_1 \pm \varphi_2$ es equivalente a girar primero $\varphi_1$ y luego $\pm\varphi_2$ ): $$ \sin(\varphi_1 \pm \varphi_2) = \sin\varphi_1\cos\varphi_2 \pm \cos\varphi_1\sin\varphi_2 \\ \cos(\varphi_1 \pm \varphi_2) = \cos\varphi_1\cos\varphi_2 \mp \sin\varphi_1\sin\varphi_2 \\ \begin{pmatrix} \cos(\varphi_1 + \varphi_2) & -\sin(\varphi_1 + \varphi_2) \\ \sin(\varphi_1 + \varphi_2) & \cos(\varphi_1 + \varphi_2) \\ \end{pmatrix} = \begin{pmatrix} \cos\varphi_2 & -\sin\varphi_2 \\ \sin\varphi_2 & \cos\varphi_2 \\ \end{pmatrix} \cdot \begin{pmatrix} \cos\varphi_1 & -\sin\varphi_1 \\ \sin\varphi_1 & \cos\varphi_1 \\ \end{pmatrix} \\ e^{\pm \text{í}\varphi_2} e^{\text{í}\varphi_1}=\text{cís}(\pm\varphi_2)\text{cís}(\varphi_1) = \big(\cos\varphi_2\pm\text{í}\sin\varphi_2\big)\big(\cos\varphi_1+\text{í}\sin\varphi_1\big) = \cos(\varphi_1\pm\varphi_2)+\text{í}\sin(\varphi_1\pm\varphi_2)=\text{cís}(\varphi_1\pm\varphi_2)= e^{ \text{í}(\varphi_1\pm\varphi_2)} $$ Estas fórmulaS nos permiten relacionar razones trigonométricas de un ángulo descompuesto en suma o diferencia de otros dos, $\varphi_1 \pm \varphi_2$ , como una suma/difererencia de un producto de las razones trigonométricas de dichos ángulos componentes, es decir, de $\varphi_1$ y $\varphi_2$ .
Manipulando estas fórmulas llegamos a las fórmulas de Werner y de Simpson para la prostaféresis, que son identidades que permiten escribir un producto de trigonométricas en una suma o diferencia de trigonométricas.

Las fórmulas de Werner (de producto a suma), llamadas así por el astrónomo, matemático y geógrafo alemán Johannes Werner ( $1468-1522$ ), son: $$ \begin{matrix} 2 & \cos \varphi_1 & \cos \varphi_2 & = & +\cos(\varphi_1 - \varphi_2) & + \cos(\varphi_1 + \varphi_2) \\ 2 & \sin \varphi_1 & \sin \varphi_2 & = & +\cos(\varphi_1 - \varphi_2) & - \cos(\varphi_1 + \varphi_2) \\ 2 & \sin \varphi_1 & \cos \varphi_2 & = & +\sin(\varphi_1 - \varphi_2) & + \sin(\varphi_1 + \varphi_2) \\ 2 & \cos \varphi_1 & \sin \varphi_2 & = & -\sin(\varphi_1 - \varphi_2) & + \sin(\varphi_1 + \varphi_2) \end{matrix} $$ (Realmente las dos últimas son la misma.) La primera la descubrió el egipcio Ibn Yunus ( $c.950-1009$ ) [realmente dos de sus métodos para determinar el tiempo de altitud solar o de estrellas eran equivalentes a esa identidad trigonométrica], pero hubo que esperar al Renacimiento cuando el relojero y matemático suizo Jost Bürgi ( $1552-1632$ ) redescubriera la primera, y hallase la segunda. Bürgi ideó un algoritmo, Kunstwegcamino del arte» en alemán) para calcular senos [y cosenos] en su libro Canon Sinuum ( $1586$ ) con una precisión arbitraria de cualquier ángulo. Como curiosidad este sería uno de los inicios/predecesores del cálculo en diferencias (la variente “discreta” del cálculo diferencial). ¿Para qué podía querer incluso $6$ cifras decimales de un seno? Porque ideó (o más bien generalizó y popularizó) un algoritmo para multiplicar números que hacía uso de razones trigonométricas: la prostaféresis.
La propia palabra prostaféresis es un oxímoron: viene del latín prosthaphaeresis , y este del griego προσθαφαίρεσις (prosthaphaíresis), que es una combinación de πρόσθεσις (prósthesis «suma») derivado de προστίθημι/πρός τίθημι (prostíthēmi/prós títhēmi «yo sumo/yo coloco adelante»), y de ἀφαίρεσις (aphaíresis «resta») derivado de ἀφαιρέω/ἀπό αἱρέω (aphairéō/apó hairéō «yo resto/yo quito, yo retiro»). El algoritmo prostaferético se llama así porque suma y resta a la vez, dos pasos en el proceso.

¿Cómo funciona la algoritmia? Vamos a usar la Identidad de Ibn Yunus - Bürgi, producto de cosenos como suma de cosenos de ángulo diferencia y suma, $2 \cos \varphi_1 \cos \varphi_2 = +\cos(\varphi_1 - \varphi_2) + \cos(\varphi_1 + \varphi_2) $ . Supongamos que tenemos dos números, $x$ e $y$ , y queremos hallar su producto, $x\cdot y$ . Primero hay que reescalar los números hasta que pertenezcan al intervalo $[0,1]$ . ¿Cómo? Basta con dividir entre $10$ tantas veces como sea necesario ( $\lceil\lg(x)\rceil$ y $\lceil\lg(y)\rceil$ veces respectivamente), llamémoslos $x^\star$ y $y^\star$ . Ahora se halla los ángulos $\varphi_1$ y $\varphi_2$ tales que $\displaystyle \left. \begin{matrix} \cos(\varphi_1) & = & x^\star \\ \cos(\varphi_2) & = & y^\star \\ \hline \end{matrix} \right\} $ (los arcos [en la circunferencia goniométrica] $\varphi_1$ y $\varphi_2$ cuyos cosenos valen $x^\star$ e $y^\star$ respectivamente, es decir, $\arccos(x^\star)$ y $\arccos(y^\star)$ respectivamente). ¿Cómo? Con una mera búsqueda inversa en una tabla de razones trigonométricas (de ahí la necesidad de tener tablas muy precisas). Ahora con los ángulos $\varphi_1$ y $\varphi_2$ , calculamos (a mano normalmente) el ángulo diferencia, $\varphi_1-\varphi_2$ , y el suma, $\varphi_1+\varphi_2$ . Entonces volvemos a usar las tablas de las razones trigonométricas, ahora con una búsqueda directa, para hallar $\cos(\varphi_1+\varphi_2)$ y para $\cos(\varphi_1-\varphi_2)$ . Ya solo hay que calcular la semisuma de estos valores (media), es decir, $\displaystyle \frac{\cos(\varphi_1-\varphi_2)+\cos(\varphi_1+\varphi_2)}{2}$ . ¿Ya hemos terminado? Casi. Hemos calculado el producto , $x^\star\cdot y^\star$ , de dos números reescalados, de $x^\star$ y de $y^\star$ , por lo que hay que deescalarlos de vuelta, “cambiando de posición la coma decimal” ( $\lceil\lg(x)\rceil + \lceil\lg(y)\rceil$ veces ). Es decir, un esquema de lo que hemos hecho es: $$ \begin{matrix} \{x,y\} & \longrightarrow & x\cdot y \\ \underset{\text{Reescala}}{\Downarrow} & & \underset{\text{Deescala}}{\Uparrow} \\ \{x^\star,y^\star\} & \overset{\text{Prostaféresis}}{\implies} & x^\star\cdot y^\star \end{matrix} $$ ¿Por qué se usaba este algoritmo si parece enrevesado? Parece mucho más enrevesado de lo que realmente es: lo más complicado es dividir entre $2$ ,y luego hacer dos sumas y una resta (puede que llevando todas), mientras que la multiplición sí que sería llevando y habría que sumar llevando los sucesivos productos intermedios (tantos como cifras tenga el factor multiplicador).
Una vez que uno adquiere cierta soltura es muy directo y fácil de aplicar, la única limitación es cómo de buenas sean las tablas de razones trigonométricas de donde se saquen los resultados (aunque hay formas de mejorar el resultado aun no teniendo unas muy buenas). La prostaféresis como algoritmo más o menos generalizado surgió $c.1589$ (Bürgi explicó posteriormente cómo funcionaba su Kunstweg en su Fundamentum Astronomiae de $1592$ ) y tuvo reconomiento durante un cuarto de siglo (y siguió en uso pero no tanto) hasta que en $1614$ John Napier publicó su tabla de logaritmos y para agilizar aún más este proceso (ya que solo habría que hacer una mera suma y era más intuitivo). Sin embargo, tanto Bürgi, padre de la prostaféresis y quien descubrió los logaritmos (pero no publicó su descubrimiento), como Napier, inventor de los logaritmos neperianos, llegaron al concepto de aritmética logarítmica tras ser expertos de aritmética prostaferética.

Por último, las “identidades inversas” que se usaron en menor medida, las fórmulas de Simpson para la prostaféresis (de suma a producto), por el matemático inglés Thomas Simpson ( $1710-1761$ ). $$ \begin{matrix} \sin\theta_1 & \pm & \sin \theta_2 & = &+2 &\displaystyle \sin \left(\frac{\theta_1 \pm \theta_2}{2} \right) &\displaystyle \cos \left(\frac{\theta_1 \mp \theta_2}{2} \right) \\ \cos \theta_1 & + & \cos \theta_2 & = &+2&\displaystyle \cos \left(\frac{\theta_1 + \theta_2}{2} \right) &\displaystyle \cos \left(\frac{\theta_1 - \theta_2}{2} \right) \\ \cos \theta_1 & - & \cos \theta_2& = & -2 &\displaystyle \sin \left(\frac{\theta_1 + \theta_2}{2} \right) &\displaystyle \sin \left(\frac{\theta_1 - \theta_2}{2} \right) \end{matrix}$$
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.