Probabilidad

"La probabilidad no te dice qué va a pasar. Te dice qué tan seguido pasará si lo repetís muchas veces."

Qué vas a aprender en este capítulo

La probabilidad es el lenguaje matemático de la incertidumbre. Sin ella, la inferencia estadística no existe — porque inferir implica hacer afirmaciones inciertas sobre la realidad. Este capítulo establece las reglas básicas de la probabilidad que necesitás para entender distribuciones, intervalos de confianza y pruebas de hipótesis.


1.1 ¿Qué es la probabilidad?

💡 Intuición

Tirás una moneda. ¿Qué probabilidad hay de sacar cara?

Si la moneda es justa, la respuesta es 1/2=0.5=50%1/2 = 0.5 = 50%. ¿Por qué? Porque hay 2 resultados posibles igualmente probables, y solo 1 es "cara".

Esta es la definición clásica (o frecuentista): la probabilidad es la fracción de veces que ocurre un evento si repetís el experimento infinitas veces en condiciones idénticas.

En la práctica:

  • Tirás 1000 veces la moneda: salen 507 caras. P(cara)507/1000=0.507P(\text{cara}) \approx 507/1000 = 0.507 (muy cerca de 0.5).
  • Si el experimento no se puede repetir (¿qué probabilidad hay de que llueva mañana?), usamos interpretaciones distintas.

La probabilidad siempre está entre 0 y 1:

  • P=0P = 0: imposible
  • P=1P = 1: certeza
  • P=0.5P = 0.5: igual de probable que improbable

📐 Fundamento

Espacio muestral (Ω\Omega): Conjunto de todos los resultados posibles de un experimento.

Evento (AA): Subconjunto del espacio muestral.

Definición clásica de probabilidad:

P(A)=nuˊmero de resultados favorables a Anuˊmero total de resultados posiblesP(A) = \frac{\text{número de resultados favorables a } A}{\text{número total de resultados posibles}}

(Asume que todos los resultados son igualmente probables.)

Axiomas de Kolmogorov:

  1. 0P(A)10 \leq P(A) \leq 1 para cualquier evento AA
  2. P(Ω)=1P(\Omega) = 1 — algo siempre pasa
  3. Si AA y BB son mutuamente excluyentes (AB=A \cap B = \emptyset): P(AB)=P(A)+P(B)P(A \cup B) = P(A) + P(B)

Complemento:

P(Ac)=1P(A)P(A^c) = 1 - P(A)

"La probabilidad de que NO ocurra A es 1 menos la probabilidad de que ocurra."

Definición frecuentista:

P(A)=limnveces que ocurre AnP(A) = \lim_{n \to \infty} \frac{\text{veces que ocurre A}}{n}

🛠️ En la práctica

Ejemplo — dado equilibrado:

Ω={1,2,3,4,5,6}\Omega = {1, 2, 3, 4, 5, 6}. Evento AA = "sacar número par" = {2,4,6}{2, 4, 6}.

P(A)=36=0.5P(A) = \frac{3}{6} = 0.5

Complemento: P(nuˊmero impar)=10.5=0.5P(\text{número impar}) = 1 - 0.5 = 0.5.

Ejemplo — empleados en empresa:

Una empresa tiene 80 empleados: 30 de contabilidad, 25 de ventas, 25 de sistemas. Se elige uno al azar.

P(sistemas)=25/80=0.3125=31.25%P(\text{sistemas}) = 25/80 = 0.3125 = 31.25%

P(no sistemas)=10.3125=0.6875P(\text{no sistemas}) = 1 - 0.3125 = 0.6875


1.2 Reglas de probabilidad

💡 Intuición

Hay dos operaciones básicas con eventos: unión (A o B) y intersección (A y B).

  • "Tirás un dado. ¿Cuánta probabilidad de sacar 2 o 5?" → unión de eventos mutuamente excluyentes.
  • "Tirás un dado. ¿Cuánta probabilidad de sacar par y mayor que 3?" → intersección.

La trampa: si los eventos se solapan (no son mutuamente excluyentes), no podés simplemente sumar las probabilidades — estarías contando el solapamiento dos veces.

📐 Fundamento

Regla de adición (unión):

Para eventos cualesquiera AA y BB:

P(AB)=P(A)+P(B)P(AB)P(A \cup B) = P(A) + P(B) - P(A \cap B)

Si AA y BB son mutuamente excluyentes (AB=A \cap B = \emptyset):

P(AB)=P(A)+P(B)P(A \cup B) = P(A) + P(B)

Regla de multiplicación (intersección):

Para eventos cualesquiera:

P(AB)=P(A)P(BA)P(A \cap B) = P(A) \cdot P(B | A)

donde P(BA)P(B | A) es la probabilidad de BB dado que ya ocurrió AA (probabilidad condicional).

Si AA y BB son independientes (P(BA)=P(B)P(B|A) = P(B)):

P(AB)=P(A)P(B)P(A \cap B) = P(A) \cdot P(B)

🛠️ En la práctica

Ejemplo — carta de baraja:

Una baraja estándar tiene 52 cartas: 13 de cada palo (♠, ♥, ♦, ♣), 4 cartas de cada valor.

¿Probabilidad de sacar un As o un corazón?

  • P(As)=4/52P(\text{As}) = 4/52
  • P(corazoˊn)=13/52P(\text{corazón}) = 13/52
  • P(As y corazoˊn)=1/52P(\text{As y corazón}) = 1/52 (el As de corazón)

P(As o corazoˊn)=4/52+13/521/52=16/520.308P(\text{As o corazón}) = 4/52 + 13/52 - 1/52 = 16/52 \approx 0.308

Ejemplo — defectos en producción:

Una fábrica produce artículos. La probabilidad de que un artículo tenga defecto de pintura es 0.05. La probabilidad de que tenga defecto de forma es 0.03. Si son independientes, ¿probabilidad de que tenga ambos defectos?

P(pintura y forma)=0.05×0.03=0.0015P(\text{pintura y forma}) = 0.05 \times 0.03 = 0.0015

¿Probabilidad de que tenga al menos uno de los dos?

P(pintura o forma)=0.05+0.030.0015=0.0785P(\text{pintura o forma}) = 0.05 + 0.03 - 0.0015 = 0.0785


1.3 Probabilidad condicional e independencia

💡 Intuición

Probabilidad condicional: La probabilidad de BB dado que ya sabemos que AA ocurrió. El conocimiento de AA puede cambiar nuestras estimaciones sobre BB.

Ejemplo: en un grupo de 100 personas, 40 fuman. De los fumadores, 15 tienen tos crónica. De los no fumadores, 5 tienen tos.

P(tos)=20/100=0.20P(\text{tos}) = 20/100 = 0.20 P(tosfumador)=15/40=0.375P(\text{tos} | \text{fumador}) = 15/40 = 0.375 P(tosno fumador)=5/60=0.083P(\text{tos} | \text{no fumador}) = 5/60 = 0.083

Sabiendo que alguien fuma, la probabilidad de que tenga tos casi se quintuplica.

Independencia: AA y BB son independientes si saber que ocurrió AA no cambia la probabilidad de BB. Tirar dos dados: el resultado del primero no afecta al segundo.

📐 Fundamento

Probabilidad condicional:

P(BA)=P(AB)P(A),P(A)>0P(B | A) = \frac{P(A \cap B)}{P(A)}, \quad P(A) > 0

"La probabilidad de B dado A es la probabilidad de que ambos ocurran, dividida por la probabilidad de A."

Independencia:

AA y BB son independientes si y solo si:

P(AB)=P(A)P(B)P(A \cap B) = P(A) \cdot P(B)

Equivalentemente: P(BA)=P(B)P(B|A) = P(B) y P(AB)=P(A)P(A|B) = P(A).

Regla de la probabilidad total:

Si {B1,B2,,Bn}{B_1, B_2, \ldots, B_n} es una partición de Ω\Omega:

P(A)=i=1nP(ABi)P(Bi)P(A) = \sum_{i=1}^{n} P(A | B_i) \cdot P(B_i)

🛠️ En la práctica

Ejemplo — control de calidad:

Una empresa tiene tres turnos: matutino (50% de producción), vespertino (30%), nocturno (20%).

Las tasas de defecto por turno son: 2%, 3%, 5%.

¿Cuál es la probabilidad de que un artículo elegido al azar sea defectuoso?

P(defecto)=P(defmat)P(mat)+P(defves)P(ves)+P(defnoc)P(noc)P(\text{defecto}) = P(\text{def}|\text{mat}) \cdot P(\text{mat}) + P(\text{def}|\text{ves}) \cdot P(\text{ves}) + P(\text{def}|\text{noc}) \cdot P(\text{noc})

=0.02×0.50+0.03×0.30+0.05×0.20=0.010+0.009+0.010=0.029= 0.02 \times 0.50 + 0.03 \times 0.30 + 0.05 \times 0.20 = 0.010 + 0.009 + 0.010 = 0.029

La probabilidad de encontrar un defecto es 2.9%.


1.4 Teorema de Bayes

💡 Intuición

El teorema de Bayes responde a una pregunta muy natural: dada una evidencia observada, ¿cuál fue la causa más probable?

Sabemos que un artículo es defectuoso. ¿Cuál fue el turno que lo produjo con más probabilidad?

Esta es la lógica del diagnóstico médico (dado que el síntoma ocurrió, ¿qué enfermedad es más probable?), del spam (dado que el email tiene ciertas palabras, ¿es spam?), de la detección de fraude.

📐 Fundamento

Teorema de Bayes:

Dado un evento AA y una partición {B1,,Bn}{B_1, \ldots, B_n} del espacio muestral:

P(BkA)=P(ABk)P(Bk)i=1nP(ABi)P(Bi)P(B_k | A) = \frac{P(A | B_k) \cdot P(B_k)}{\sum_{i=1}^{n} P(A | B_i) \cdot P(B_i)}

Terminología:

  • P(Bk)P(B_k): probabilidad a priori — qué sabemos antes de la evidencia.
  • P(ABk)P(A | B_k): verosimilitud — qué tan probable es la evidencia dado cada causa.
  • P(BkA)P(B_k | A): probabilidad a posteriori — qué sabemos después de ver la evidencia.

"La probabilidad a posteriori es proporcional a la verosimilitud por la a priori."

🛠️ En la práctica

Continuando el ejemplo de turnos:

Un artículo resultó defectuoso. ¿Qué probabilidad hay de que lo haya producido el turno nocturno?

P(nocdefecto)=P(defnoc)P(noc)P(defecto)P(\text{noc} | \text{defecto}) = \frac{P(\text{def}|\text{noc}) \cdot P(\text{noc})}{P(\text{defecto})}

=0.05×0.200.029=0.0100.0290.345= \frac{0.05 \times 0.20}{0.029} = \frac{0.010}{0.029} \approx 0.345

El turno nocturno, que produce solo el 20% de los artículos, es responsable del 34.5% de los defectos. El sistema de control de calidad debería enfocarse ahí.

Aplicación en medicina: Un test de enfermedades tiene 99% de sensibilidad (detecta si hay enfermedad) y 99% de especificidad (no da falso positivo). La enfermedad afecta al 0.1% de la población. Si el test da positivo, ¿cuánta probabilidad hay de que la persona realmente esté enferma?

P(E)=0.001P(E) = 0.001, P(+E)=0.99P(+|E) = 0.99, P(+¬E)=0.01P(+|\neg E) = 0.01

P(E+)=0.99×0.0010.99×0.001+0.01×0.999=0.000990.00099+0.00999=0.000990.010989%P(E|+) = \frac{0.99 \times 0.001}{0.99 \times 0.001 + 0.01 \times 0.999} = \frac{0.00099}{0.00099 + 0.00999} = \frac{0.00099}{0.01098} \approx 9%

¡Con un test del 99%, un positivo solo implica 9% de probabilidad real de estar enfermo! Esto se debe a que la enfermedad es rarísima (0.1%). La mayoría de positivos son falsos positivos. Por eso en medicina se hacen varias pruebas de confirmación.


1.5 Ejercicios

✏️ Ejercicio 1.1 — Probabilidad básica

En una clase de 30 estudiantes: 12 son mujeres, 8 tienen beca, y 5 son mujeres con beca. Se elige un estudiante al azar.

a. ¿P(mujer)? b. ¿P(con beca)? c. ¿P(mujer o con beca)? d. ¿P(mujer y con beca)?

✏️ Ejercicio 1.2 — Probabilidad condicional

En el ejercicio anterior:

a. ¿P(beca | mujer)? — probabilidad de tener beca dado que es mujer b. ¿P(mujer | beca)? — probabilidad de ser mujer dado que tiene beca c. ¿Son independientes los eventos "mujer" y "beca"?

✏️ Ejercicio 1.3 — Teorema de Bayes

Un banco tiene tres tipos de clientes con morosidad histórica distinta:

  • Clientes A (bajo riesgo): 60% del total, morosidad 2%
  • Clientes B (riesgo medio): 30% del total, morosidad 8%
  • Clientes C (alto riesgo): 10% del total, morosidad 20%

Un cliente está en mora. ¿Cuál es la probabilidad de que sea de tipo C (alto riesgo)?


1.6 Para profundizar


Definiciones nuevas: espacio muestral, evento, probabilidad, complemento, unión, intersección, eventos mutuamente excluyentes, eventos independientes, probabilidad condicional, teorema de Bayes, a priori, a posteriori, verosimilitud.