Una década antes de morir, Thomas Bayes( $c.1701-1761$) estuvo haciendo un experimento: le pidió a un sirviente que pusiera una bola en una mesa, pero que no le dijese dónde estaba. Luego tenía que ir tirando bolas y cantando dónde caían en relación con la bola inicial. O sea, no tenía mucha información sobre un suceso concreto (dónde estaba la bola inicial), pero tras sucesivos sucesos (tiros de bolas) iba actualizando su conocimiento sobre dicha bola inicial. Empero Bayes, en un primer momento, no consideró este resultado suficientemente importante, y lo desestimó, sin embargo es mucho más importante de lo que en un primer momento puede parecer. No fue hasta $1763$ cuando Richard Price ($1723-1791$) expuso tal magnum opus a la Royal Society. Bayes se interesó en la probabilidad y estadística en los últimos años de su vida al leer los trabajos de varios intelectuales. Sin embargo, aunque trabajó en algunos artículos, nunca llegó a publicar ninguno, y no fue hasta después de muerto que se publicó (similar a otros científicos como Newton).
En el instituto, e incluso en $1^o$ de carrera, el teorema de Bayes se se suele introducir como un mero resultado más. Los ejercicios suelen ser que piden una probabilidad condicionada o directamente piden aplicar el teorema de Bayes, cuyos argumentos (inputs) muchas veces se dan ya en el enunciado o solo hay que hacer una operación para hallarlos, pero nunca se pide comentar el resultado.
Para entender el teorema de Bayes, hay que estar familiarizado con la probabilidad condicionada: $\operatorname{P}(A|B)$ se lee «probabilidad de $A$ condicionado $B$», es decir, es la probabilidad de que ocurra el suceso $A$ sabiendo previamente [bajo la condición de] que ha sucedido $B$ . Viene dado por la definición de Kolmogórov (Колмого́ров): $$ \operatorname{P}(A|B) = \frac{\operatorname{P}(A\cap B)}{\operatorname{P}(B)} $$ (Se puede entender como hallar un lado del rectángulo de área $\operatorname{P}(A\cap B)$ con lados $\operatorname{P}(B)$ y $\operatorname{P}(A|B)$ ). El Teorema de Bayes establece: $$ \operatorname{P}(A| B) = \frac{\operatorname{P}(B | A) \operatorname{P}(A)}{\operatorname{P}(B)} $$ O para múltiples sucesos: $$ \operatorname{P}(B) = {\sum_j \operatorname{P}(B| A_j) P(A_j)} \implies \operatorname{P}(A_i| B) = \frac{\operatorname{P}(B| A_i) \operatorname{P}(A_i)}{\displaystyle \sum_j \operatorname{P}(B| A_j) \operatorname{P}(A_j)} = \frac{\operatorname{P}(B| A_i) \operatorname{P}(A_i)}{\displaystyle \operatorname{P}(B| A_i) \operatorname{P}(A_i) + \sum_{j\neq i} \operatorname{P}(B| A_j) \operatorname{P}(A_j)} $$
El teorema de Bayes consiste en partir al principio de una probabilidad que se conoce a priori y a través de más conocimiento, se va refinando y optimizando la certeza de dicho evento, es decir, según se van conociendo más condiciones (eventos, sucesos), se va actualizando la probabilidad hasta estar muy perfilada.
El teorema de Bayes se puede usar en múltiples aspectos; veamos los más sorprendentes: se ha usado desde ver en qué zonas del Atlántico había que buscar para hallar el oro de un galeón hundido, para hallar a un asesino en serie, para rescate marino de unos náufragos. Tal ha sido la repercusió de este teorema que se fudó una rama de la estadística y de la probabilidad, la bayesiana, donde el propio teorema da nombre a elementos como factor de Bayes, inferencia bayesiana, estimador de Bayes, prior de Bayes, regresión lineal bayesiana...
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.
En el instituto, e incluso en $1^o$ de carrera, el teorema de Bayes se se suele introducir como un mero resultado más. Los ejercicios suelen ser que piden una probabilidad condicionada o directamente piden aplicar el teorema de Bayes, cuyos argumentos (inputs) muchas veces se dan ya en el enunciado o solo hay que hacer una operación para hallarlos, pero nunca se pide comentar el resultado.
Para entender el teorema de Bayes, hay que estar familiarizado con la probabilidad condicionada: $\operatorname{P}(A|B)$ se lee «probabilidad de $A$ condicionado $B$», es decir, es la probabilidad de que ocurra el suceso $A$ sabiendo previamente [bajo la condición de] que ha sucedido $B$ . Viene dado por la definición de Kolmogórov (Колмого́ров): $$ \operatorname{P}(A|B) = \frac{\operatorname{P}(A\cap B)}{\operatorname{P}(B)} $$ (Se puede entender como hallar un lado del rectángulo de área $\operatorname{P}(A\cap B)$ con lados $\operatorname{P}(B)$ y $\operatorname{P}(A|B)$ ). El Teorema de Bayes establece: $$ \operatorname{P}(A| B) = \frac{\operatorname{P}(B | A) \operatorname{P}(A)}{\operatorname{P}(B)} $$ O para múltiples sucesos: $$ \operatorname{P}(B) = {\sum_j \operatorname{P}(B| A_j) P(A_j)} \implies \operatorname{P}(A_i| B) = \frac{\operatorname{P}(B| A_i) \operatorname{P}(A_i)}{\displaystyle \sum_j \operatorname{P}(B| A_j) \operatorname{P}(A_j)} = \frac{\operatorname{P}(B| A_i) \operatorname{P}(A_i)}{\displaystyle \operatorname{P}(B| A_i) \operatorname{P}(A_i) + \sum_{j\neq i} \operatorname{P}(B| A_j) \operatorname{P}(A_j)} $$
El teorema de Bayes consiste en partir al principio de una probabilidad que se conoce a priori y a través de más conocimiento, se va refinando y optimizando la certeza de dicho evento, es decir, según se van conociendo más condiciones (eventos, sucesos), se va actualizando la probabilidad hasta estar muy perfilada.
El teorema de Bayes se puede usar en múltiples aspectos; veamos los más sorprendentes: se ha usado desde ver en qué zonas del Atlántico había que buscar para hallar el oro de un galeón hundido, para hallar a un asesino en serie, para rescate marino de unos náufragos. Tal ha sido la repercusió de este teorema que se fudó una rama de la estadística y de la probabilidad, la bayesiana, donde el propio teorema da nombre a elementos como factor de Bayes, inferencia bayesiana, estimador de Bayes, prior de Bayes, regresión lineal bayesiana...
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.