Después del post del triángulo de Sierpinski, me estuve preguntando cómo se calculaban computacionalmente otro tipo de fractales como el famoso de Mandelbrot, y resulta ser bastante simple:
Fractal de Mandelbrot
Toma un punto en el plano complejo, \(z = a + bi\), y mételo en la fórmula \(f_c = z² + c \),coges lo que te de la fórmula y lo vuelves a meter en ella, lo vuelves a meter... así indefinidamente.
Ahora bien si el punto que te va dando la función converge a un valor del plano cualquiera, lo pintas de negro, y si no converge (si diverge a infinito) le das un color distinto, de esta forma las cuentas imitan este patrón:
Para este fractal la fórmula es \(f_c = z² + c \) , pero ¿ qué pasa si variamos la fórmula?
Hoy vamos a buscar fractales con las fórmulas más comunes:
Mandelbrot cuadrado
\[f_c = z² + c \]
Barco quemándose
\[f_c = ( |Re(z)| + i . |Im(z)| )² + c\]
Tricornio (fractal de Mandelbar)
Mandelbrot Cúbico
\[f_c = z³ + c\]
Mandelbrot Perlin
\[f_c = z⁴ + c\]
Fractal de Newton
\[f_c = z - p(z)/p'(z)\]
con p(z) = z3 − 1
Fractal Phoenix
\[z_{n+1} = z_{n}² + k . z_{n-1} + c\]
Buscando fotos y simuladores para el artículo he descubierto un motor de fractales muy chulo (si teneis Linux) os recomiendo XaoS, os permite hacer zoom todo lo que queráis dentro del fractal y tiene muchos famosos.
Quizás en algún momento de tu vida te as encontrado por internet este dibujo:
Por si no te suena, es el triángulo de Sierpiński, y a parte de en tu feed de Instagram aparece de manera insospechada en varios rincones de las matemáticas bastante curiosos.
Hoy vamos a ver un par de formas de construirlo desde la manera más normalita a la más insospechada.
Primero de todo vamos a dibujarlo directamente, a mano (si tienes un papel a mano te recomiendo probar a dibujarlo tú mismo).
En primer lugar, dibuja un triángulo equilátero, localiza los puntos medios de sus lados y únelos. Eso es una iteración, después hacemos lo mismo con cada uno de los 3 trianguiltos que han aparecido en la figura, luego seguimos y lo hacemos a los 9 ... en algún momento dejaremos de dibujar (aunque sea por aburrimiento), pero si tuvieramos paciencia infinita o los comandos prohibidos de Belarmino para C llegaríamos a que la figura iguala en el infinito al fractal, el triángulo de Sierpiński.
Construcción Directa
Empezamos con un triángulo, marcamos los puntos medios de cada lado y los unimos, en la siguiente iteración hacemos lo mismo con 3 triangulitos de los 4 triangulitos que han aparecido, iterando este proceso se revela el patrón siguiente:
Esta es la forma más normalita de encontrarse el fractal, pero también hay otra forma de construirlo directamente, que es haciendo copias de sí mismo:
Construcción por duplicado
Hasta aquí si ya conocías la forma o el fractal te puede haber resultado curioso o te puede haber dado un poco igual, pero ahora vienen las sorpresas, pues este triángulo al parecer sale hasta de entre las pierdras.
Método probabilístico
Dibuja un triángulo y coloca un punto en él, donde quieras (dentro, fuera, en un borde...), ahora selecciona al azar un número entre 1 y 3, fíjate en el vértice correspondiente y une tu punto con él. Ahora pinta el punto medio entre tu punto y el vértice, has completado la primera iteración. Ahora toca realizar lo mismo con el punto que acabas de dibujar y seguir indefinidamente.
Esto son las primeras iteraciones lentas para ilustrar el proceso:
Ahora bien, de esta sopa de puntos no debería emerger ningún patrón, recuerdo que cogemos los vértices al azar, pero no, resulta que si ponemos más puntos...
¡Aparece el mismísimo triángulo de Sierpiński! Esta manera de obtener el triángulo descoloca un poco la primera vez que la ves, porque del puro azar sale un patrón tan ordenado que parece hasta mentira.
Ahora bien, vamos a rizar el rizo ¿si llenamos siguiendo estas pautas otro polígono nos aparecerá algún fractal similar? Vamos a verlo.
Cuadrado:
No tiene pinta
Pentágono:
Podría servir
(Para esta última animación he calculado 30k frames, y los bordes no están muy perfilados, supongo que el patrón sigue pero es un poquito acto de fé)
Hexágono:
De nuevo volvemos a no tener suerte, pero la imágen final me despierta la duda de si las uniones de los vértices con el centro no pueden ser alcanzadas por los puntos y las vemos medio-sombreadas por puntos cercanos o es simplemente una cuestión probabilística.
Heptágono:
En este último caso vemos que el centro queda bastante despoblado, pero dudo mucho que eventualmente se perfile un heptñagono o un círculo en el centro, seguramente este hueco sí sea una cuestión probabilística.
El triángulo de Sierpiński aparece en mil sitios, desde el número de lados que tienen los polígonos regulares que puedes construir con compás pasando por el binario hasta la paridad de los números en el triángulo de Pascal.
Como curiosidad, el triángulo tiene dimensión \(log_2(3))\, desde luego en otro sentido de dimensión que el "numero de elementos de una base del espacio".
Para estas y más formas de redescubrir el triángulo de Sierpiński, os dejo estos videos que están bastante chulos.
Si en algún momento de vuestra vida os ha dado por mirar la entrada de wikipedia sobre constantes matemáticas (que me jugaría un brazo a que no) os habréis dado cuenta de una que resalta a la vista que, en la posición 89 claramente viene la constante de Feigenbaum, que resulta tener una relación muy curiosa con un modelo similar al de Lotka-Volterra, el mapa logístico.
Las ecuaciones de Lotka-Volterra son ecuaciones diferenciales, que tienen en cuenta variaciones infinitesimales en las variables, pero antes de llegar a ellas surgieron modelos discretos, esto es, que se iteraban paso a paso en vez de considerar la evolución como un contínuo.
En este contexto surge el mapa logístico, una herramienta para modelar poblaciones y estudiar el comportamiento constante, cíclico o caótico de sistemas dinámicos.
La ecuación tiene la siguiente pinta:
\[x_{n+1} = \lambda x_n (1 - x_n)\]
Esto significaría que, la cantidad de conejos en la siguiente iteración $x_{n+1}$ variará de acuerdo con el parámetro $\lambda$ y la cantidad de conejos al momento de iteración $x_n$.
Gráficas
Veamos cómo se comportan estas gráficas si variamos $\lambda$.
En primer lugar, si $\lambda \in (0,1)$ la sucesión es convergente a 0:
Después cuando $\lambda \in (1,3)$ vemos que la poblacion se establece en torno a un valor fijo $\frac{\lambda-1}{\lambda}$, sabemos esto gracias a la iteración de punto fijo.
Luego cuando $\lambda \in (3,3.57)$ las cosas empiezan a complicarse, observamos bifurcaciones de periodo doblante, o sea, que aparecen figuras de este estilo que se dividen en 2 sucesivamente:
Por último si estamos entre los 3.57 y 4 empieza el comportamiento caótico, una nube de puntos sin correlacion aparece en la gráfica.
Por último, veamos cómo varían los puntos respecto al $\lambda$ con un video:
Ahora bien, ¿qué tiene que ver Feigenbaum con esto?
La constante de Feigenbaum, \( \delta \approx 4.6692 \), es la razón que describe cómo cambian las distancias entre los valores de \( \lambda \) en los que ocurren las bifurcaciones por duplicación de período.
En otras palabras, la diferencia entre el valor de \( \lambda \) donde se bifurca de un ciclo de período 1 a un ciclo de período 2, y el valor donde se bifurca de un ciclo de período 2 a un ciclo de período 4, está gobernada por esta constante. A medida que el sistema se aproxima al caos, estas distancias se reducen, y la razón entre las diferencias consecutivas tiende a \( \delta \).
La constante de Feigenbaum se obtiene del cociente:
Esto significa que, aunque el caos aparece entre los valores de \( \lambda \) aproximadamente entre 3.57 y 4, esta relación nos indica dónde aparecerán las bifurcaciones, lo me parece bastante chulo.
Puede que os suene que recientemente ha habido un "incidente" del campus, ya que por teléfono escacharrado ha acabado siendo poco menos que un tiroteo con fuga en helicóptero; acabó siendo nada, pero si nos ponemos serios ¿cómo de probable es que ocurriera de verdad algo así?
(Os adelanto que en España es prácticamente imposible, de hecho voy a usar datos de EE.UU. para que aún con esas, salga una probabilidad baja)
La Regresión de Poisson
La regresión de Poisson es un modelo estadístico diseñado para analizar eventos de baja frecuencia (como tiroteos) que ocurren en un periodo de tiempo en una zona particular. Este modelo es especialmente útil cuando el evento es raro y discreto (hay un número entero de ocurrencias), como es el caso de nuestro ejemplo.
En el modelo de regresión de Poisson, asumimos que el número de incidentes, denotado como \( Y \), sigue una distribución de Poisson, lo cual implica que la probabilidad de observar un cierto número de incidentes en un periodo de tiempo específico depende de una tasa de ocurrencia \( \lambda \), que a su vez depende de varios factores poblacionales. El modelo tiene la siguiente forma:
\( \lambda \) es la tasa esperada de eventos (incidentes armados) en un periodo o región específico.
\( \beta_0 \) es el término constante o intercepto del modelo.
\( X_i \) representa las variables que pueden influir en los incidentea (por ejemplo, el tamaño de la población, accesibilidad de las armas ...) .
\( \beta_i \) son los coeficientes que determinan el impacto de cada variable en la tasa de incidentes.
Coeficientes
Como cada coeficiente \( \beta_i \) indica el cambio en el logaritmo de la tasa incidentes que ocurren respecto a cómo varía \( X_i \), podemos interpretar los efectos de \( \beta_i \) como sigue
Si \( e^{\beta_i} > 1 \), la variable \( X_i \) aumenta la tasa de incidentes.
Si \( e^{\beta_i} < 1 \), la variable \( X_i \) reduce la tasa de incidentes.
Nuestro caso:
En España desde 2021 han habido 17 incidentes armados en escuelas / institutos / universidades, aquí dejamos que cuenten casos mucho menos graves que un tiroteo (peleas fuertes, apuñalamientos...).
Como en España el indice de tiroteos es ridículamente bajo, vamos a usar algunos datos de EE.UU. para inflar la probabilidad y que salga algo apreciable para "inicidentes escolares", de cualquier tipo.
Calzándolo en la fórmula de la distribución de Poisson:
\[ P(Y≥1)=1−P(Y=0)=1−e^{−λ}\]
Que para nuestro caso: \[6.58329\%\]
Aclaración, esto es en toda España, que en una población tan grande se espere 1 caso con esa probabilidad no es nada escandaloso, en EE.UU, los tiroteos en los mismos periodos de tiempo fueron en torno a 300 frente a los 17 de España, lo cual haría esa probailidad aún más pequeña si cabe en España.
En conclusión, podeis venir tranquilos a la universidad, salvo si estudias magisterio (porque no ibas a ir a clase de todas formas).
El paper original es este, seguramente si de verdad os interesa el modelo estará mil veces mejor que este resúmen.
Estoy seguro de que todos alguna vez hemos comido una pizza recién hecha en casa, y al ver que la pizza se doblaba hacia abajo, sin pensarlo dos veces hemos curvado el borde tal que así para mantenerla erguida.
En ese caso, quizás tu intuición esté a la altura del mayor matemático del siglo XIX y posiblemente de entre los mejores de toda la historia, Carl Friedrich Gauss.
(Bueno, igual no, pero vamos a ver por qué)
Gauss probablemente no comiera mucha pizza en la Alemania de su época, pero aun así se interesó por describir la curvatura de las superficies y cuantificarla.
Dejando de lado un poco el rigor, podemos entender la definición de la curvatura de Gauss observando los cortes de la superficie de la que queremos determinar la curvatura con ciertos planos, y viendo si se curva hacia arriba (curvatura positiva), hacia abajo (curvatura negativa) o es recta (curvatura 0).
Para sacar la curvatura total de la figura, se multiplica la de cada uno de sus ejes, por ejemplo vamos a ver esta montañita:
Intersecamos con los planos XZ e YZ y vemos que
K1 < 0
K2 < 0
Si las curvaturas son K1 y K2, como ambas son negativas, la curvatura total que es el procuto de las 2 es K = K1 . K2 es positiva.
También pueden darse otros casos como este:
De nuevo al cortar con los planos queda:
La curvatura respecto al XZ es negativa, pero como respecto al YZ es 0 automáticamente la curvatura total es K = K1 . K2 = 0.
Bien, ahora a la parte divertida, resulta que hay un teorema bastante importante que dice que, para cualquier figura, la curvatura de Gauss se mantiene por isometrías, es decir, mientras que no estiremos ni cortemos la figura, la curvatura de Gauss de la superficie se mantendrá.
Y aquí es donde entra en juego nuestro objetivo del día, comer pizza:
Esta es un pizza normal
Podemos apreciar que la pizza apoyada en la mesa es plana, por lo que tiene en un inicio curvatura total 0.
El teorema nos garantiza que por mucho que la movamos, esa curvatura total va a mantenerse, de forma que nos encontrarnos 2 situaciones familiares, en las que esta propiedad puede jugar:
En nuestra contra
O a nuestro favor
La curvatura total de la pizza debe seguir siendo 0, así que para no violar este "teorema Egregium" (que así se llama el teorema anterior), la pizza necesita ganar un eje respecto al que su curvatura sea 0, cualquiera de los 2 sirve.
Así que la próxima vez que comas una pizza con amigos, no desperdicies la oportunidad de contarles lo que es la curvatura de Gauss, que se vayan a los 2 minutos de oirte hablar y te dejen con la pizza para ti solo.
La segunda jornada de la Liga matemática enfrentó a la Universidad de Valladolid contra la Universidad de Extremadura, el lunes 7 de octubre a las 18:30.
La UVa llegaba tras una gran victoria ante la Universidad de Sevilla, mientras que la UEx había perdido su primer partido ante la Complutense de Madrid. DerUVada hizo tres cambios con respecto a la alineación del primer partido, dando entrada a Esteban, Jorge y Alejandro, y manteniendo en el sexteto titular a Juan, Javier y Guillermo.
Los tres problemas a resolver fueron los siguientes:
Problema 1:
Sin calcular el valor de 34!, determinar los dígitos a y b que faltan.
34! = 295232799039a041408476186096435b0000000.
Problema 2:
Sean a, b, c números reales positivos tales que (a+b)(b+c)(c+a)=1. Encontrar el valor máximo de ab + bc + ca.
Problema 3:
Un número estrictamente no palíndromo es un número entero n que no es palíndromo en ningún sistema numérico con base b en el rango 1<b<n-1. Demostrar que si n>6 es un número estrictamente no palíndromo, entonces n es un número primo.
El duelo fue casi un calco del de la jornada anterior contra la US. Después de un inicio tranquilo, en el que se repartieron las tareas y se avanzaba simultáneamente en todos los problemas, la UVa presentó los ejercicios 1 y 2 de forma casi consecutiva, poniendo el 2-0 en el marcador cuando apenas habían pasado cuarenta y cinco minutos.
Sin embargo, aún quedaba medio partido por delante, y las perspectivas para el último enunciado eran bastante menos claras. Tras un esfuerzo colectivo de todo el equipo, se llegó a una solución muy elegante, aunque las ideas seguían sueltas, y había que enlazarlas. Así, de la misma forma que sucedió en la jornada pasada, la UEx anotó un gol agónico para lograr el 2-1 poco antes de enviar la UVa la respuesta revisada. Tras una larga espera debido a la complejidad de la solución, el árbitro anunció que la corrección daba el problema como válido y la UVa se hacía con su segunda victoria de la temporada.
La siguiente jornada enfrentará a la Universidad de Valladolid con la Universidad de las Islas Baleares, en un partido en el que la UVa podrá seguir tomando velocidad de crucero para hacerse con una de las dos plazas del grupo boreliano que dan acceso a la final four de Oviedo.
Nuestros excelentísimos señores veteranos quieren organizar una barra legendaria, que pase a la historia como la mejor barra jamás organizada en mates, por lo que han alquilado todo Cocón y han sobornado al portero para que deje colar amigos de otras carreras.
Pero nuestros veteranos no se quedan ahí, para asegurarse de que sea la mejor barra tienen que arreglárselas para que la gente tenga siempre bebida, ni escasa ni en exceso.
Planeando se topan con que: si hay más bebida de la necesaria para la gente de mates (aproximadamente $aleph_0$litros), algunos empezarán a invitar amigos de otras carreras, lo cual reducirá la disponibilidad de bebida y provocará que la gente se aburra y se vaya a otro sitio, regulando de nuevo la cantidad de bebida disponible a los que se quedan.
Esto suena sospechosamente similar a un problema de poblaciones en un ecosistema, 2 grupos que dependen de la población del otro para crecer o extinguirse (bebida y bebedores), lo cual nos da una pista para pensar en el modelo de Lotka-Volterra.
Ecuaciones de Lotka-Volterra
Las ecuaciones de Lotka-Volterra son un sistema de ecuaciones diferenciales que sirven para modelar poblaciones y ecosistemas, por ejemplo nos permiten saber cómo pequeños cambios en una población de conejos va a alterar la futura población de zorros (más conejos implica más comida para los zorros, los zorros se multiplican, los conejos empiezan a escasear, mueren zorros, los conejos se recuperan ...) todo esto ocurre en ciclos regulares como se puede ver en esta gráfica.
Cada color representa un ciclo dado por unas condiciones iniciales, al pasar el tiempo cada anillo se recorre en sentido antihorario, o sea, la población varía de acuerdo a la gráfica en cuestión.
Pero para qué querríamos hacer algo tan trivial e inútil como modelar una poblacion para tomar decisiones, mejorar su estabilidad y bla bla bla, aburrido, vamos a darle un uso serio a estas ecuaciones por el bien de la ciencia, veamos cuánta bebida deberíamos servir en una barra para asegurar la estabilidad de la fiesta.
Considerando las variables:
x = "cantidad de universitarios"
y = "botellas de bebida disponible"
Las ecuaciones de Lotka-Volterra quedarían de la siguiente forma:
$$ \frac{dx}{dt} = \alpha x - \beta x y $$
$$ \frac{dy}{dt} = \delta x y - \gamma y $$
Donde:
α es la tasa de reposición de la bebida.
β representa el consumo de bebida por unidad de tiempo.
ɣ es la tasa de abandono de la barra por escasez de bebida
δ es la tasa de invitaciones en abundancia de bebida.
Bien, una vez presentado el modelo, vamos a dar un "saltito" a su solución, para los curiosos habrá un enlace al final.
Las curvas soluciones tienen la siguiente pinta, en función de las condiciones iniciales (xo,y0)
$$V_{(x_0,y_0)} = \delta x - \gamma ln(x) + \beta y - \alpha ln(y)$$
Estas soluciones se pueden poner en gráficas muy bonitas a mi parecer, como esta:
Entonces ¿Cual es entonces la cantidad de bebida que evita que se acabe la fiesta antes de tiempo?
Vemos que en las curvas más exteriores como la amarilla o naranja el riesgo de acabar por el orígen, o sea, que se acabe la bebida y se vaya todo el mundo, es mayor, por lo que nuestros excelentísimos veteranos deberían acordar un suministro describa una curva más estable, como la roja, la gris o la verde.
Además, estas curvas nos dan información de cuándo el sistema es más frágil para estratégicamente inyectar bebida extra al sistema e impedir que se acabe la fiesta, ese momento se encuentra al llegar al borde izquierdo de la gráfica, así alejaríamos la gráfica del 0 del eje x y pasaríamos a un ciclo más estable.
Con el curso ya empezado, arrancó el jueves 3 de octubre la segunda edición de la Liga Matemática de la ANEM. En esta primera jornada, la Universidad de Valladolid se enfrentó a la Universidad de Sevilla a las 16:00.
El equipo vallisoletano, más experimentado y reforzado con un nuevo delegado y varios flamantes fichajes, llegó muy motivado al primer partido de la temporada. El subcampeón de la pasada edición alineó a Juan, Sergio, Guillermo, Nicolás, Javier y Jaime para intentar conseguir la primera victoria de la campaña, quienes tuvieron que resolver los siguientes problemas:
Problema 1:
¿Es posible encontrar 2024 números enteros positivos distintos tales que ninguno es un cuadrado perfecto y al sumar dos o más de ellos tampoco se obtiene un cuadrad perfecto?
Problema 2:
En un triángulo ABC isósceles, con lado AB desigual, el punto D es el punto medio del lado BC. La circunferencia con diámetro AD interseca AB y AC en los puntos E y F, respectivamente. Demostrar que EF es paralelo a BC.
Problema 3:
Consideremos la sucesión definida por 16, 1156, 111556..., donde cada número se obtiene del anterior insertando 15 entre sus cifras centrales. Demostrar que todos los números de la sucesión son cuadrados perfectos.
El partido tuvo un inicio lento, y ambas universidades estuvieron una hora intentando resolver los tres problemas, aunque no fueron capaces de sumar ningún punto en sus respectivos casilleros. Sin embargo, la UVa hacía avances significativos en todos los frentes, y llegó a conclusiones de forma muy seguida poco después de la marca de los sesenta minutos, anotando los dos primeros tantos del partido de manera casi consecutiva.
Con una cómoda ventaja en el marcador y casi media hora por delante, el gol de la victoria parecía solo cuestión de tiempo. Después de un último intento, sonó el grito de "¡Eureka!" y se llegó a la solución del último problema. Parecía que se iba a completar una abultada goleada, pero mientras el razonamiento se pasaba a limpio la US anotó el gol del honor, dejando el marcador final en un excelente US 1-3 UVa.
Tras este fantástico inicio, la Universidad de Valladolid se verá las caras con la Universidad de Extremadura, en un partido que tendrá lugar el lunes 7 de octubre a las 18:30.
En el día de hoy traemos un artículo relevante: el teorema del seno que tantos quebraderos de cabeza ha traído a estudiantes de PREU, BUP, COU, ESO y Bachillerato.
Consideremos un triángulo de lados $a,b,c$ y ángulos opuestos a los lados $\alpha,\beta,\gamma$. Entonces el teorema del seno establece que:
$$ \frac{a}{\sin\alpha} = \frac{b}{\sin\beta} = \frac{c}{\sin\gamma} = 2R $$
Donde $R$ es el radio de la circunferencia circunscrita al triángulo, es decir, la circunferencia que pasa por los tres vértices del triángulo.
De hecho, el II teorema de Tales (si los vértices de un triángulo está circunscritos en una circunferencia de diámetro $\overline{BC}$, entonces es un triángulo rectángulo) se puede ver como un caso particular:
$$ a=2R \iff \alpha=\frac{\pi}{2}$$
Este resultado es bastante útil a la hora de hallar el valor de un lado si se conocen dos ángulos y un lado, o en su defecto a la hora de hallar un ángulo si se conocen dos lados y un ángulo opuesto a alguno de estos.
Este formidable teorema se lo debemos al matemático andalusí Ibn Mu'adh al-Jayyani también conocido como Ibn Muad de Jaén el Joven. De origen jiennense, no se sabe muy bien si nació en Jaén o en Córdoba, la entonces capital del califato omeya de Córdoba. Que vivas tiempos interesantes reza una maldición china, y así fue su caso: al nacer en el 989 el califato omeya estaba llegando a su fin: la muerte de Almanzor en el 1002 y la de su hijo ʿAbd al-Málik en el 1008 dejó a al-Ándalus en una situación precaria donde los visires tenían más poder que los califas, recluidos en su palacio de Medina Azahara y los gobernadores locales se sublevaban contra el poder. En el 1031 cayó definitivamente el califato tras una prolongada muerte. Ibn Muad de Jaén el Joven se había asentado en Jaén donde escribió al menos sobre matemásticas y astronomía demostrando este teorema en su versión para esferas. No se sabe muy bien cuándo murió si en el 1079 o 1093, cuando tendría entre 90 y 104 años.
Debido al desbordante número de peticiones que he recibido sobre este tema ( 1 ) me veo obligado a desvelar los secretos que, esta vez sí, permiten en teoría desbancar al casino si se ejecutan correctamente, hoy vamos a hablar de cómo contar cartas en el Blackjack y sobre por qué funciona.
El juego
El Blackjack es un juego contra la banca, por lo que no hacen falta más jugadores que uno mismo y el crupiere. El objetivo es conseguir que la suma de tus cartas supere la suma de las del crupiere, sin pasarte de 21.
Al inicio de la partida, el crupiere reparte 2 cartas a cada jugador, todas boca arriba, y acto seguido se da una carta a sí mismo. Aquí el jugador cuenta lo que suman sus cartas, ve la del crupiere y decide entre cerrar su mano, pedir otra carta, doblar la apuesta o, si tiene dos cartas iguales, dividir su mano en 2.
Si decide cerrar su mano (normalmente porque la suma es alta), el crupiere se repartirá cartas a sí mismo hasta llegar a 17 o más. Una vez tenga al menos 17, se comparan tu suma y la del crupiere, quien gane se lleva lo apostado, si hay empate se queda todo igual, y si tienes blackjack(21) pagan 3/2 de lo apostado.
Un ejemplo, si tus cartas { K, 4, 5 } suman 10+4+5=19 y el crupier saca { J,3,5 } que suman 10+3+5=18, como 18 es mayor a 17, el crupier deja de repartirse cartas y ya que 19 > 18 habríamos ganado la mano.
En caso de que el crupier hubiera sacado J,Q hubiéramos perdido pues 10+10 = 20 > 19. Y si hubiera sacado K, 6, Q 10+6+10 = 26>21 se habría pasado y habríamos ganado.
Si pides carta y tu suma se pasa de 21, automáticamente pierdes independientemente del crupiere.
Bien, una vez explicadas por encima las normas vamos a ver cómo ganarle a tus amigos antes de ganarle al casino.
Ganar con amigos
La idea de ganar dinero contando cartas surge de que podemos esperar a que queden pocas cartas bajas (2,3,...,7,8) en la baraja para apostar más fuerte en esas rondas y evitar apostar en las que tendríamos probabilidades normales de ganar.
Esto es así ya que con cartas más altas en la baraja es más seguro que nos repartan una alta y nos interese quedarnos a partir de 17 u obtengamos blackjack natural (As + Figura = 21).
Dicho esto, si estamos esperando a que se acaben las cartas altas, el numero de barajas en juego importa, pues hay más cartas altas posibles y estarán más distribuidas.
Para 1 o 2 barajas, existen tablas precomputadas que permiten jugar de manera óptima juzgando por la suma de tus cartas y las del crupiere como se ve en esta imágen.
Para jugar con amigos basta con memorizar los sectores de estas tablas y en funcion de ello apostar más o menos esa jugada, las estrategias son óptimas suponiendo que se ha barajado antes de empezar.
H es apostar (hit)
D es doblar
S es quedarse (stay)
DS es doblar y si no se puede, separar
Ganar al casino
Los casinos son conscientes de que existen este tipo de estrategias, por lo que usan entre 5 y 7 barajas para minimizar la ventaja del jugador, pero aun así se puede sacar ventajas menores.
El sistema es el siguiente, según inicie la partida la cuenta es 0, cuando aparezcan cartas con 2, 3, 4, 5 o 6 sumas +1 a la cuenta, si aparecen un 7, 8 o 9 se ignora, y si la carta es 10, as o figura restas 1.
Manteniendo la cuenta mental de las cartas que van saliendo podemos ponernos cerca de la mesa y esperar a que la cuenta que lleves sea alta para entrar a la mesa, apostar alto un par de rondas y si hay suerte, ganar bastante dinero.
Retomando el artículo de la ruleta, la esperanza matemática del blackjack sin estrategia es negativa, es decir, que a la larga podemos esperar perder dinero. Sin embargo contando cartas tenemos que la esperanza matemática de jugar cuando la cuenta que llevas es un cierto número \( S \) es la siguiente:
\[T = \frac{S}{\text{barajas restantes}}\]
Esta T es la llamada "True Count" que varía con el numero de barajas en juego
\[E = \frac{T - 1}{\text{número de barajas}}\]
Por ejemplo, si llevaramos la cuenta de la partida en 14 y hay 5 barajas restantes, entonces:
Luego tienes cierta ventaja contra el casino, cosa que si no siguieras la cuenta y calcularas esos porcentaes, probablemente acabaras apostando con una cuenta negativa y esperanza negativa, por lo general del -0.5% hasta el -1.5 %.
Cuando la cuenta suba hasta 15-20 puntos podemos entrar a la mesa y apostar más fuerte de lo que apostaríamos normalmente, ya que tenemos una esperanza superior a la del juego normal.
Si quieres aprender a contar cartas lleva mucho esfuerzo y paciencia, porque llevar tantos numeros en la cabeza y no equivocarse es particularmente difícil si a la vez estás jugando y hablando un poco para no parecer completamente absorbido por el juego y que el casino te expulse por contar.
Nota: Contar cartas mejora tus posibilidades pero no te garantiza nada, la ventaja de esta estrategia es apostar muy fuerte en un par de rondas en las que tienes ventaja, posiblemente ganar bastante dinero, y retirarse inmediatamente. En este proceso puedes tener mala suerte y perder aún así todo tu dinero, pero siempre será mejor que jugar a ciegas de las probabilidades que juegan en tu contra.
A veces nos toca tomar decisiones sin saber, quizás lo que tenemos frente a nosotros es el chollo de nuestra vida o lo último por la cola de nuestras posibilidades, pero no lo sabemos por falta de experiencia.
Por ejemplo con un puesto de trabajo, un piso en alquiler, un coche en venta o incluso al elegir pareja, no sabes a lo que te metes hasta que ya has trabajado en varios sitios o tenido varias parejas para comparar con la elección actual.
Es por esto que resultado me parece muy curioso e incluso útil para tomar decisiones, el planteamiento es el siguiente:
Coche nuevo
Quieres comprarte un coche de segunda mano, y has estado buscando mucho para cerrar el catálogo a un total de 100 coches que a la vez te puedes permitir y te gustan, ahora bien, una vez examinas un coche con el propietario, debes tomar la decisión de comprarlo o no al acabar, pues asumimos que, si luego quieres volver a por él, otro se lo habrá llevado para entonces, así que los rechazos son permanentes.
Tenemos pues:
Planteado esto ¿cuántos coches deberías mirar antes de elegir el definitivo?
Si te quedas con el primero, lo más seguro es que no te encuentres el mejor de todos, sería como casarte con la primera persona que te lo propusiera, pero por otra parte, si los miras todos y te quedas el último, lo más probable es que el mejor ya se te haya pasado, por tanto, la solución debe estar en el medio.
¿Cual debería ser k en este caso? ¿Y para N objetos?
Efectivamente, la respuesta está en el medio, y es 1/e ≈ 0.368 ≈ 37% de los N objetos disponibles para mirar, por lo que en este caso deberías tomar nota de los primeros 37 coches que veas sin comprar ninguno, y comprar el próximo coche que supere a todos los anteriores.
Un detalle importante es que esta estrategia no es infalible. Podría suceder que los primeros coches que veas sean los mejores, y que luego ninguno los supere, en cuyo caso podrías terminar con uno de los peores, pero curiosamente, esta estrategia nos da una probablidad del 37% de no fallar, que en general es superior a hacerlo a ojo.
La demostración de este resultado es algo compleja, por lo que dejo un par de links para los interesados en este el llamado "Problema de la secretaria" o "Problema de la parada óptima"
«Todas las evidencias muestran que Dios es en realidad un gran jugador y el universo un gran casino donde los dados se lanzan y la ruleta gira en todo momento. »
-Stephen Hawking, ludópata y aficionado a la física
Si hay algo que los matemáticos en especial no deberían hacer por sentido común, es apostar dinero en el casino, ya que deberían haber aprendido gran cantidad de conocimientos en Probabilidad de 1º y por ello, sabrían lo que es la esperanza matemática y por qué eso supone malas noticias para su bolsillo, pero en caso de que "estuvieras malo" el 85% de las clases de Eusebio y no pudieras asistir, te lo resumo.
Definición
La esperanza matemática se define por \[ E(X) = \sum_{i} x_i \cdot p_i \]
¿Pero qué información nos da esta cuenta a priori arbitraria?
Si tiramos una moneda al aire, tenemos que la probabilidad de ganar y la de perder son idénticas, \( \frac{1}{2} \), por lo que si seguimos jugando indefinidamente podemos esperar que "más o menos" nos salga el mismo número de caras que de cruces, ganar el mismo número de veces que perdemos.
Si nos proponen un juego en el que, si sale cara ganamos 2€ y si sale cruz perdemos 1€, la intuición nos dice que deberíamos poder ganar dinero, así que comprobemos con la esperanza matemática si en verdad es así.
Consideremos ahora \[X = \text{"Dinero que gano en esta jugada en €".}\]
Y obtenemos que el valor esperado de \( X \) es de 0.5€, un numero positivo , o sea que si seguimos jugando, a la larga, podremos esperar ganar en promedio 0.5€ con cada jugada, un chollo.
Veamos qué pasa ahora con la 37 destinos.
La ruleta
Consideremos también \[X = \text{"Dinero que gano en esta jugada".}\]
Utilizando la regla de Laplace vemos que:
P(Rojo) = \( \frac{18}{37} \)
P(Negro) = \( \frac{18}{37} \)
P(Cero) = \( \frac{1}{37} \)
Sabemos además que en el casino, por cada euro apostado si ganamos nos lo doblan (+1€) y si perdemos nos lo quitan (-1€). Entonces:
La esperanza es negativa, lo cual nos indica que a la larga, la variable "Dinero que gano en la jugada" va a ser negativa, o en lenguaje corriente, que vamos a perder dinero si seguimos jugando.
Sorprendentemente, da igual a qué apostemos, pares, impares, rojo, negro... ¡ la esperanza es la misma!
Claro, la probabilidad de que caiga en un numero concreto es mucho menor a la de que caiga en rojo/negro o par/impar, pero como pagan más las pérdidas a la larga serán las mismas.
O sea, que da igual a lo que juegues que vas perder lo mismo. Si empiezas la noche con 15€ jugando en una mesa con apuesta mínima de 5€ puedes esperar perder: \[5\cdot(-0.027) =-0.135€\] por jugada, eso sí, probablemente no te dure las \(\frac{15}{0.135} = 111\) rondas teóricas.
Por último, que puedas esperar perder tu dinero no significa que lo tengas que perder, puedes ganar dinero en el casino, meter 10 al rojo y salir instantáneo con 20€ fresquitos, pero lo que nos dice la esperanza es, que si te quedas, y sigues jugando eventualmente esos 10 irán bajando y subiendo hasta hacerse 0.
Si quieres probar tu suerte, te dejo este programa sinulador de ruleta para que veas lo que te duraría el dinero y un par de gráficas por si no te apetece ejecutarlo :)
Esta última entrada antes del verano es simplemente para introducir brevemente al lector la idea de la integral de Choquet. Esta defición de la integral, que no es necesariamente aditiva como otras deficiniones, se utiliza en mecánica estadística, teoría del potencial y teoría de la decisión.
Dejemos el vídeo introductorio aquí:
Aquí otro donde se comenta cómo escoger los pesos:
¿Qué crees que nos pondrá? ¿Algo díficil de integrar? - A lo que respondí: No sé, pero mientras no nos ponga ninguna como el seno o coseno de Fresnel, que se definen como una integral... - A lo que me respondieron: ¡No, hombre, no! ¡Cómo va a poner algo de eso! - Al recibir el examen vimos que había que integrar a lo largo de una curva parametrizada, donde según la parametrización indicada se tenían que usar estas funciones.
Empecemos con el seno normalizado de Fresnel:
$$\begin{array}{ cccc }
\operatorname{S}: & \mathbb{R}& \longrightarrow &
\mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x
\!\sin\!\left(\frac{\pi}{2}t^2\right) \;\mathrm{d}t
\end{array}$$
De forma análoga se define el coseno normalizado de Fresnel
$$\begin{array}{ cccc }
\operatorname{C}: & \mathbb{R}& \longrightarrow &
\mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x
\!\cos\!\left(\frac{\pi}{2}t^2\right) \;\mathrm{d}t
\end{array}$$
Veamos una gráfica de las funciones:
Con esta definición es fácil ver que son funciones $\mathscr{C}^\infty$ cuyo desarrollo en serie viene dado por:
$$ \operatorname{S}(x) = \sum_{n=0}^\infty \frac{(-1)^n\pi^{2n+1}}{2^{2n+1}(4n+3)(2n+1)!}x^{4n+3} \qquad \operatorname{C}(x) = \sum_{n=0}^\infty \frac{(-1)^n\pi^{2n}}{2^{2n}(4n+1)(2n)!}x^{4n+1} $$
Uno de los límites interesantes que tienen estas funciones son:
$$ \lim_{x\to\pm\infty}\operatorname{S}(x) = \lim_{x\to\pm\infty}\operatorname{C}(x) = \pm\frac{1}{2} $$
Veamos la curva conocida como espiral de Cornu $\Big\{\big(\operatorname{C}(x),\operatorname{S}(x)\big)\,/\,x\in\mathbb{R}\Big\}$
Estas funciones están íntimamente relacionadas con la función error gaussiano, $\varepsilon\!\operatorname{rf}(x)$. Estas funciones no solo aparecen en óptica, sino también en ecuaciones diferenciales, al considerar los iterantes de Picard para la ecuación diferencial del péndulo simple.
En el día de hoy traemos algunos comentarios sobre raíces de polinomios, ya
sean reales o complejas. Sentemos primero alguna notación, que para un
polinomio con coefieciente principal $a_n\neq0$, y grado $n$, $\deg P = n$ :
$$ P(z) = a_0 + a_1z+\cdots a_{n-1}z^{n-1}+a_nz^n=\sum_{i=0}^n a_iz^i $$ Su
polinomio recíproco asociado a $P(z)$ se define como: $$
P^\mathrm{rec}(z) = \bar{a}_0z^n + \bar{a}_1z^{n-1}+\cdots
\bar{a}_{n-1}z+\bar{a}_n=\sum_{i=0}^n
\bar{a}_iz^{n-i}=z^n\,\overline{P\!\left(\frac{1}{\bar{z}}\right)} $$
Un polinomio de grado impar con coeficientes reales tiene al menos una
raíz real (Teorema de Bolzano).
Un polinomio con coeficientes reales, si $z\in\mathbb{C}$ es solución,
entonces si $\bar{z}\in\mathbb{C}$ también es solución, es decir, las
raíces complejas aparecen en pares, siendo complejas conjugadas entre sí
(Teorema de la raíz conjugada compleja).
Un polinomio con coeficientes enteros, si tiene alguna raíz racional,
será el cociente de algún divisor del término independiente entre algún
divisor del coeficiente principal (Teorema de la raíz racional).
Existen fórmulas cerradas para raíces de polinomios de grado $4$ o
inferior, pero no existe una fórmula cerrada genérica con radicales para
grado $5$ o superior, salvo en casos muy particulares como las
quínticas de de Moivre. (Teorema de la imposibilidad de Abel-Ruffini). De hecho, para las raíces de polinomios de grado $5$ Hermite
demostró que se pueden expresar con funciones elípticas, mientras que el
teorema de Saüch-Ruffini establece que hay
algunas polinomios de grado $5$ cuyas raíces no se pueden
expresar con radicales. Las raíces de los polinomios de grado $6$ se pueden expresar con las funciones de Kampé de Fériet, una generalización a dos variables de las funciones hipergeométricas generalizadas.
Un polinomio con coeficientes en algún subconjunto de los complejos y de
grado $n$ tiene $n$ raíces complejas (Teorema fundamental del álgebra).
Los números trascendentes (como por ejemplo $\pi,e,\ln2$), por
definición, no son raíces de polinios de grado finito con coeficientes
racionales.
Hay valores que acotan superiormente en módulo las raíces de un
polinomio:
La cota de Lagrange es $\displaystyle
\max\!\left(1,\frac{1}{|a_n|}\sum_{i=0}^{n-1}|a_i|\right)$.
La cota de Cauchy es $\displaystyle
1+\frac{1}{|a_n|}\max_{i=0}^{n-1}|a_i|$.
la cota de Lagrange-Zassenhaus es $\displaystyle
2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n]{\left|\frac{a_0}{a_n}\right|}\right)$.
Otra cota debida a Lagrange es $\displaystyle \sum_{i=1\\a_i\neq0}^n \left|\frac{a_{i-1}}{a_i}\right|$.
la cota de Fujiwara es $\displaystyle
2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\sqrt{\left|\frac{a_{n-2}}{a_n}\right|},\cdots,\sqrt[n-1]{\left|\frac{a_1}{a_n}\right|},\sqrt[n]{\left|\frac{a_0}{2a_n}\right|}\right)$.
La cota de Kojima es $\displaystyle 2\max\!\left(\left|\frac{a_{n-1}}{a_n}\right|,\cdots,\left|\frac{a_1}{a_2}\right|,\left|\frac{a_0}{2a_1}\right|\right)$ .
Las raíces de la derivada de un polinomio están contenidas en la
envolvente convexa de las raíces del polinomio primitivo (Teorema de Gauss-Lucas).
Un polinomio con coeficientes reales, su número de raíces positivas del
polinomio es o bien igual al número de cambios de signo de los
coeficientes no-nulos o bien menor por una diferencia par (Criterio de los signos de Descartes).
Para un polinomio real $P(x)$, el número de cambios de signo de $P(x+a)$ menos el número de cambios de signo de $P(x+b)$ (ambos en la base estándar) menos el número de raíces de $P(x)$ en $(a,b]$ es un número par no-negativo. (Teorema de Budan-Fourier).
Al realizar la división euclídea de un polinomio entre su derivada, y
evaluar la secuencia de polinomios en los extremos de un intervalo, el
número de raíces reales (en dicho intervalo) es la diferencia del cambio
de signos de las cadenas (Teorema de Sturm).
Las raíces de un polinomio son los inversos de las raíces de su
polinomio recíproco. Este resultado combinado con todos los
anteriores puede hasta duplicar la información que tenemos sobre las
raíces.
Supongamos que tenemos una función $f(x)$ dos veces derivable en un intervalo $[a,b]$, que tiene una raíz $\alpha\in[a,b]$, es decir $f(\alpha)=0$.Además suponemos que tanto la primera derivada, $f^{(1)}(x)$, como la segunda, $f^{(2)}(x)$, no se anulan en el intervalo $[a,b]$.
En el método de Newton-Rhapson suponemos que el extremo derecho del intervalo, $x_0=b$, es una buena estimación para la raíz (de hecho valdría otro punto del intervalo, pero tomaremos este por simplicidad). Se calcula la recta tangente a la función $f(x)$ en el punto $x=x_0$, es decir, $f(x_0) + f^{(1)}(x_0)\,(x-x_0)$, donde estamos despreciando términos de orden $\mathcal{O}\big((x-x_0)^2\big)$. Como la recta tangente a la función es una buena aproximación local a la función, calculamos el punto donde se anula la recta tangente, que lo llamamos $x_1$:
$$ x_1 = x_0 - \frac{f(x_0)}{f^{(1)}(x_0)} $$
Si ahora iteramos esto con el punto $x_1$, se llega a otro punto $x_2$, y así sucesivamente se obtiene una sucesión $\{x_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$.
Lo bueno de este método es que existe una constante $\displaystyle M=\frac{1}{2}\sup_{x\in[a,b]}\left\{\left|\frac{f^{(2)}(x)}{f^{(1)}(x)}\right|\right\}>0$ tal que $|x_{n+1}-\alpha|\leqslant M (x_n-\alpha)^2$, es decir, converge cuadráticamente, y donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-\alpha}{(x_n-\alpha)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.
El método de Newton-Fourier en la iteración inicial considera el extremo izquierdo del intervalo, $z_0=a$, es una buena primera estimación. En vez de considerar solo la recta tangente, considera la recta paralela a la recta tangente del método de Newton-Raphson, es decir, con la pendiente $f^{(1)}(x_0)$, pero que pase por el punto $\big(z_0,f(z_0)\big)$, por lo que la ecuación de esta recta queda $f(z_0) + f^{(1)}(x_0)\,(x-z_0)$. Una vez más vemos donde se anula, que llamaremos $z_1$, dando:
$$ z_1 = z_0 - \frac{f(z_0)}{f^{(1)}(x_0)} $$
Donde una vez más se puede crear una secuencia $\{z_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Es más, la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente decreciente, mientras que la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente creciente, ambas convergiendo a la raíz $\alpha$ de forma cuadrática, ya que existe una constante $K>0$ tal que $|x_{n+1}-z_{n+1}|\leqslant K (x_n-z_n)^2$ donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-z_{n+1}}{(x_n-z_n)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.
Si reunimos toda la información
$$ \left\{ \begin{matrix}
x_{n+1} & = & \displaystyle x_n-\frac{f(x_n)}{f^{(1)}(x_n)} &\quad & x_0=b &\quad& x_n\downarrow\alpha \\
z_{n+1} & = & \displaystyle z_n-\frac{f(z_n)}{f^{(1)}(x_n)} &\quad & z_0=a &\quad& z_n\uparrow\alpha\\
\end{matrix} \right. \\
a = z_0 \lneq z_1 \lneq \cdots \lneq z_n \lneq \cdots \lneq \alpha \lneq \cdots \lneq x_n \lneq \cdots \lneq x_1 \lneq x_0 = b $$
Nótese que el método de Newton-Fourier está pensado para funciones que satisfagan $f^{(1)}(x),f^{(2)}(x)\neq0$ en el intervalo.