Nota sobre la distribución binomial negativa y la distribución beta

Para empezar recordemos una de las generalizaciones dadas para la suma geométrica. Una revisión detallada de cómo se deduce esta identidad se puede encontrar en el PDF. Linealidad de la iteración del operador  y sus aplicaciones en la suma geométrica se sugiere solamente como contexto. No es relevante para la aplicación que mostraremos a continuación.

Observación 6.1 Sean n, m \in \mathbb{N} \, x \neq 0, 1 . Entonces se tiene lo siguiente,

\displaystyle{\sum_{{k}=1}^{n}} \left(\genfrac{}{}{0pt}{0}{m+k-2}{k-1}\right) {x^{k-1}} {(1-x)^{m}}  +  \displaystyle{\sum_{{r}=1}^{m}}  \left(\genfrac{}{}{0pt}{0}{n+r-2}{r-1}\right) \left({ {1-x}}\right)^{  r-1}  {x^{n}}  =1

Para los lectores familiarizados con términos de probabilidad, es sencillo entender la aplicación de la identidad anterior. Esta identidad tiene relevancia en los conceptos de distribución binomial negativa. Sin embargo, en este sitio, lo que se busca es hacer asequibles los conceptos que se presentan para todos. Por eso, revisaremos superficialmente algunos conceptos de probabilidad. Esto facilitará el entendimiento de lo que se pretende mostrar. Cabe mencionar que en el ejemplo principal se utilizará el número de visitantes del sitio. Hasta el momento de publicar esta entrada, este número es (1863). Por suerte para los ejemplos, el número es mayor a cero.

Experimentos tipo Bernoulli

Recordemos que un experimento tipo Bernoulli es un experimento aleatorio. No podemos determinar su resultado y tiene exactamente dos posibles resultados. Estos resultados se identifican normalmente como «éxito» o «fracaso». Comúnmente, se denota la probabilidad de que suceda un «éxito» con la letra p. Se denota la probabilidad de que suceda un «fracaso» con la letra q. Por lo tanto, es inmediato ver que p+q=1. Esto se cumple porque el experimento solo tiene dos posibles resultados por definición. El ejemplo más emblemático es el lanzamiento de una moneda. En este, se puede considerar como un «éxito» obtener uno de los dos lados de la moneda. Por decir algo, obtener una cara. Al «fracaso» se le considera obtener una cruz. Es irrelevante cuál se designe como «éxito» o como «fracaso». Por otra parte, la probabilidad de que alguno de los dos resultados suceda, es un número que mide el resultado posible, ejemplo se puede considerar en el lanzamiento de la moneda a la probabilidad de que suceda un «éxito» con p= \dfrac{1}{2} teniendo en cuenta que las condiciones del experimento sean las mismas para los dos posibles resultados y coincide con la probabilidad que se obtenga un «fracaso» definiendo así el valor de q= \dfrac{1}{2}. Es claro que, sí de alguna forma se beneficia a alguno de los resultados su número de probabilidad asignado aumenta, por ejemplo sí consideramos que tirar la moneda con la cara boca arriba propicia que el resultado sea cara, entonces el valor de p podrían considerarse mayor a \dfrac{1}{2}. En efecto, suponiendo que se cuente con una moneda con dos caras, siempre se obtendría un «éxito», por lo tanto p =1 y q =0.

Algunas distribuciones discretas

Ahora, retomaremos algunas nociones básicas de distribuciones para poder revisar como se relaciona la identidad de la Observación 6.1 con la distribución binomial negativa. En lo siguiente se entenderá que se trabaja sobre una secuencia de experimentos Bernoulli que suceden con las mismas condiciones, es decir, que la probabilidad asignada a cada uno de sus posibles resultados es la misma para cada experimento y que la secuencia de experimentos son independientes, es decir que los resultados de un experimento dado no están determinados por algún otro experimento.

Observación 6.2 Sean p \in (0, 1), \, \, \, n , m \in \mathbb{N} y k , r   \geq 0 y por otra parte definamos lo siguiente,

i)

x =  «experimento» – Una visita a este sitio web

ii)

X = (x_1 , x_2, ... , x_n, ... )  – Visitas de este sitio web

iii)

r = «éxito» – Cuándo un visitante lea una entrada del blog

iv)

k = «fracaso» – Cuándo un visitante no lea una entrada del blog

Con lo anterior recordemos que,

1)

Distribución uniforme discreta

Dada una variable aleatoria X que toma valores en el conjunto (x_1 , x_2, ... , x_n). La distribución uniforme discreta asigna la misma probabilidad a cada resultado de un experimento y su función de probabilidad está definida por,

P [ X = x_i ]=  \left\lbrace \begin{aligned} \dfrac{1}{n}   \hspace{2.5cm} & x_i \in \left\lbrace x_1, ... , x_n \right\rbrace , \\ \\ 0  \hspace{2.5cm} & \textit {en otro caso }. \end{aligned} \right.

Ejemplo: la probabilidad de que un visitante lea esta entrada del blog es de p = \dfrac{1}{6}\approx 0.1666. Puesto que solo hay 6 entradas hasta el momento de está publicación.

2)

Distribución binomial

Dada una secuencia de experimentos Bernoulli independientes, la distribución binomial X \sim Bin( n , p), describe el número de r «éxitos» obtenidos en n experimentos dados, con una probabilidad constante p de «éxito» y su función de probabilidad está dada por,

P [ X = r ]=  \left\lbrace \begin{aligned} \binom{n}{r} p^r (1- p )^{n-r} \hspace{0.5cm} & 0 \leq r \leq n  , \\ \\ 0  \hspace{3cm} & \textit {en otro caso }. \end{aligned} \right.

Ejemplo: la probabilidad de que 308 visitantes lean una entrada del blog es de \begin{aligned} P [ X = 308]&= \binom{1863}{308} \left( {{1}\over{6}} \right)^{308} \left(1- {{1}\over{6}} \right)^{1863-308}  \\&=\binom{1863}{308} \left( {{1}\over{6}} \right)^{308} \left( {{5}\over{6}} \right)^{1555} \approx  0.03152   \end{aligned} Usando p \approx 0.1666

3)

Distribución geométrica

Dada una secuencia de experimentos Bernoulli independientes con una probabilidad constante p de «éxito», la distribución geométrica X \sim Geom(p), describe el número experimentos necesarios para obtener un primer «éxito», equivalentemente describe el número de k «fracasos» antes de obtener el primer «éxito», y su función de probabilidad está dada por,

P [ X = x]= \left\lbrace \begin{aligned} p (1- p )^{x-1} \hspace{2.5cm} &  x=1, 2, 3, \cdots \hspace{0.5cm} (\textit{para experimentos }) \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

P [ X = k]= \left\lbrace \begin{aligned} p (1- p )^{k} \hspace{2.5cm} & k= 0, 1, 2, \cdots \hspace{0.5cm} (  \textit{para fracasos}) \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

Ejemplo: La probabilidad de que el quinto visitante haya sido el primero en leer una entrada del blog es de P [ X = 5]= \left( {{1}\over{6}} \right) \left(1- {{1}\over{6}} \right)^{5-1} \approx 0.0803

4)

Distribución binomial negativa

Dada una secuencia de experimentos Bernoulli independientes con una probabilidad constante p de «éxito», la distribución binomial negativa X \sim BN(r, p) , describe el número x de experimentos necesarios para obtener r «éxitos», equivalentemente, describe el número k de «fracasos» antes de obtener r «éxitos», y su función de probabilidad para X experimentos está dada por,

P [ X = x ]= \left\lbrace \begin{aligned} \binom{x-1}{r-1} p^r (1- p )^{x-r} \hspace{1cm}&  x=r, r+1, +r+2, \cdots \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

Para «fracasos»,

P [ X = k ]= \left\lbrace \begin{aligned} \binom{k+r-1}{k} p^r (1- p )^{k} \hspace{1cm} & k=0, 1, 2, \cdots \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

Ejemplo: La probabilidad de que en la visita 211 se hayan acumulado 4 lectores de este blog es, P [ X = 211]=\binom{211-1}{4-1} \left( {{1}\over{6}} \right)^{4} \left(1- {{1}\over{1863}} \right)^{211-4}\approx 7.943X10^{-13}

Análisis sobre «éxitos» y «fracasos» en la distribución binomial negativa; relación de complementariedad

Ahora que ya conocemos los términos adecuados sobre la distribución binomial negativa, vamos a plantear la aplicación en la teoría de probabilidades de la identidad mostrada en la Observación 6.1. Primero hagamos un paréntesis para revisar un par de hechos sobre particiones naturales para entender el contexto del objetivo.

Observación 6.3

a) Supongamos que X es un número natural que se particiona en m elementos naturales, es decir X = k_1+\cdots + k_m. Entonces son equivalentes,

i) X tiene una representación canónica, X=n_m+m-1 donde, n_m es el máximo de todos los sumandos de cualquier partición de m elementos naturales.
ii) \hat {k_1}+ \cdots + \hat{ k_m}=n_m+m-1 , para cualquier partición de m sumandos

b) \forall X \in \mathbb{N} tal que X = k_1+\cdots + k_m es una partición natural, son equivalentes,

iii) n_m=1 (máximo de los sumandos)
iv) X = k_1+\cdots + k_X

En particular, si X representa el número de experimentos, entonces para cualquier partición de dos elementos naturales X=k_1+r_1, se tiene que k_1+r_1=(X-1)+2-1=X.. Es conveniente comentar que en cualquier número X de experimentos, siempre se pueden usar los «éxitos» y «fracasos» como una partición, teniendo en cuenta que k_1=X \Leftrightarrow r_1=0 ó r_1=X \Leftrightarrow k_1=0. Es decir, que solamente se hayan obtenido «éxitos» ó «fracasos» durante los X experimentos. Entonces para los valores no nulos de la función de probabilidad de la distribución binomial negativa, se tiene la siguiente simetría algebraica,

\begin{aligned} \binom{x-1}{r-1} p^r (1- p )^{x-r} &= \binom{r+k-2}{r-1} p^r (1- p )^{k-1} \\ &=\binom{r+k-2}{k-1} p^r (1- p )^{k-1} \end{aligned}

Solamente se uso el cambio de variable X=r+k-1 para tomar valores naturales en k y hay que tener en cuenta que, x-r=k-1 y x-1=(r-1)+(k-1). Por lo tanto, la función de probabilidad para este caso se puede escribir como,

P [  X =r+(k-1)]= \left\lbrace \begin{aligned} \binom{k+r-2}{k-1} p^r (1- p )^{k-1} \hspace{1cm} & r, k= 1, 2, 3, \cdots \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

Esta función cuenta el número total de experimentos hasta r éxitos. Análogamente, sabemos que modelar «éxitos» o «fracasos» son complementarios en X experimentos. Entonces podemos contemplar el número total de experimentos hasta k fracasos.

P [  X =k+( r-1)]= \left\lbrace \begin{aligned} \binom{k+r-2}{r-1}(1- p)^k p ^{r-1} \hspace{1cm} &  r, k = 1, 2, 3, \cdots \\ \\ 0 \hspace{3.5cm} & \textit {en otro caso }. \end{aligned} \right.

Y aquí es cuando la magia sucede, usando la identidad de la Observación 6.1 y tomando las probabilidades durante los recorridos de los valores k, r en el número total X=r+k-1 de experimentos se tiene que,

\displaystyle{\sum_{{t}=1}^{k}} \left(\genfrac{}{}{0pt}{0}{r+t-2}{t-1}\right) {(1-p)^{r}} {p^{t-1}} + \displaystyle{\sum_{{s}=1}^{r}} \left(\genfrac{}{}{0pt}{0}{k+s-2}{s-1}\right)  p^k \left({ {1-p}}\right)^{ s-1}  =1

Es sencillo verificar las implicaciones que tiene esta identidad en la teoría probabilidad, veamos un ejemplo.

Ejemplo: Supongamos nos interesa modelar hasta que visita X se podrían haber tenido 4 lectores, es decir, nos interesa saber la probabilidad que en la visita X, haya habido cuatro personas que leyeron alguna entrada del blog. Para hallar esto usaremos la distribución binomial negativa para X=4+(k-1). Así, teniendo en cuenta el número X de experimentos y el número r=4 de «éxitos» la función que modela la probabilidad es la siguiente,

\begin{aligned} g(X) =P[X=4+(k-1)]&=\binom{X-1}{4-1} {\left({{1}\over{6}}\right)}^4 \left(1- {{1}\over{6}} \right)^{X-4} \\ &=\binom{k+2}{k-1} {\left({{1}\over{6}}\right)}^4 \left(1- {{1}\over{6}} \right)^{k-1} \end{aligned}

La cuestión se pone interesante, sí quisiéramos saber la probabilidad que en un máximo de 1500 visitas haya 4 lectores, el número de probabilidades a sumar es algo considerable pues la solución es,

\begin{aligned} P[4 \leq X \leq 1500] &= \displaystyle\sum_{k=4}^{1500} g(X)\\&=\displaystyle\sum_{k=1}^{1497} \binom{k+2}{k-1} {\left({{1}\over{6}}\right)}^4 \left(1- {{1}\over{6}} \right)^{k-1} \end{aligned}

Pero conociendo la relación de complementariedad de los «éxitos» y de los «fracasos» aplicada en la probabilidad acumulada entonces tenemos que,

P[4 \leq X \leq 1500] =1- \displaystyle\sum_{r=1}^{4} \binom{1495 +r }{r-1} {\left(1-{{1}\over{6}}\right)}^{1497} \left({{1}\over{6}} \right)^{r-1}

Por lo tanto, P[4 \leq X \leq 1500] \approx 0.009255

Como se puede apreciar, no es necesario ser un experto en el tema de las probabilidades para poder visualizar las aplicaciones de las identidades que surge usando la propiedad iterativa del operador Suma, es suficiente con dejar volar la imaginación pues la grandeza de las matemáticas hace que de alguna u otra forma los resultados de las disciplinas matemáticas converjan. Para finalizar esta entrada mostraremos la propiedad inmediata que surge en la relación de complementariedad y la distribución beta.

Relación de complementariedad para la distribución beta y otras identidades.

Como ya estamos habituados con términos de probabilidad esta sección se hará lo más breve posible, sólo recordaremos algunos conceptos y utilizaremos la identidad de la Observación 6.1. Comenzaremos recordando la definición usual de la función beta.

Definición 7.1 \forall z , w tales que, \Re (z),  \Re (w)   \in \mathbb{R}^{+} . Se define \beta ( z,  w) como,

\beta ( z,  w) =\int_{0}^{1} x^{z-1}(1-x)^{w-1} dx = \dfrac{\gamma(z) \gamma (w)}{\gamma(z+w)}

Por otra parte, retomando la identidad finita de la Observación 6.1 sabemos que, sí n, m \in \mathbb{N} \, x \neq 0, 1 , entonces conocemos la expresión,

Y manipulando la identidad anterior usando el cambio de variable x={\dfrac{y-a}{b-a} } se tiene que,

1-x=1-{\dfrac{y-a}{b-a} }={\dfrac{b-a}{b-a}}-{\dfrac{y-a}{b-a}}={\dfrac{b-y}{b-a}} .

Entonces, sustituyendo valores en la identidad anterior se sigue que,

{ \displaystyle{\sum_{{k}=1}^{n}} \left(\genfrac{}{}{0pt}{0}{m+k-2}{k-1}\right) { \left( \dfrac{y-a}{b-a} \right) ^{k-1}} {\left( \dfrac{b-y}{b-a}\right)^{m}}  +  \displaystyle{\sum_{{r}=1}^{m}}  \left(\genfrac{}{}{0pt}{0}{n+r-2}{r-1}\right) \left( \dfrac{b-y}{b-a} \right)^{  r-1}  { \left( \dfrac{y-a}{b-a} \right)^{n}}  =1}

Y como se está usando un cambio de variable, x={\dfrac{y-a}{b-a} }   \, \, \,  \Longrightarrow  \, \, \,  dx=\dfrac{dy}{b-a} .
Por lo tanto, usando la identidad anterior, integración y las propiedades de la función beta podemos ver lo siguiente .

Observación 7.2 Sean a \neq  b, \in \mathbb{R}^{+}, \,  n, m  \in \mathbb{N}, \forall z , w tales que, \Re (z),  \Re (w)   \in \mathbb{R}^{+} , \forall y \in (a,b).

1)

{ \displaystyle{\sum_{{k}=1}^{n}} \dfrac{\beta^{-1}(k,m)}{m+k-1} { \left( \dfrac{y-a}{b-a} \right) ^{k-1}} {\left( \dfrac{b-y}{b-a}\right)^{m}}  +  \displaystyle{\sum_{{r}=1}^{m}} \dfrac{ \beta^{-1}(r,n)}{n+r-1} \left( \dfrac{b-y}{b-a} \right)^{  r-1}  { \left( \dfrac{y-a}{b-a} \right)^{n}}  =1}

2)

{ \displaystyle{\sum_{{k}=1}^{n} } \dfrac{m}{(k+m)(m+k-1)}  +  \displaystyle{\sum_{{r}=1}^{m}}  \dfrac{n}{(r+n)(n+r-1)} =1}

3)

{ \displaystyle{\sum_{{k}=1}^{n}}\dfrac{ \beta^{-1}(k,m) \beta^{-1}(z,w)\beta(m+z,k) }{m+k-1}+  \displaystyle{\sum_{{r}=1}^{m}} \dfrac{ \beta^{-1}(r,n) \beta^{-1}(z,w)\beta(n+w,r)}{n+r-1}  =1}

4)

{ \displaystyle{\sum_{{k}=1}^{n}} \dfrac{ \beta^{-1}(k,m)}{(m+k-1)(y-a)} \int_{a}^{y}{ { \left( \dfrac{t-a}{b-a} \right) ^{k-1}} {\left( \dfrac{b-t}{b-a}\right)^{m}}  }dt+  \displaystyle{\sum_{{r}=1}^{m}} \dfrac{ \beta^{-1}(r,n)}{(n+r-1)(y-a)} \int_{a}^{y} { \left( \dfrac{b-t}{b-a} \right)^{  r-1}  { \left( \dfrac{t-a}{b-a} \right)^{n}}}dt  =1}

De igual forma que en el apartado anterior, las funciones de distribución son los sumandos de las identidades anteriores y las aplicaciones son de carácter inmediato.

Publicado por Enrique ToM

Matemático, estoy convencido que el conocimiento tiene que compartirse sin tanto protocolo.