Además de las distribuciones básicas que se introducen en un primer curso de probabilidad y estadística (como Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal -Gaussiana- y Gamma), presentamos algunas funadmentales para el cálculo de intervalos y la prueba de hipótesis de algunos modelos estadísticos. Esta se derivan a partir del Teorema de Cambio de Variable (univariado o multivariado)
Teorema D.1 (Teorema de cambio de variable) Sea \(X_1,\ldots,X_n\) v.a.’s continuas con fd conjunta \(f_{X_1,\ldots, X_n}\left(x_1,\ldots, x_n\right)\). Sea \(\mathfrak{X}=\left\{\boldsymbol{x}\in \mathbb{R}^n: f_{X_1,\ldots, X_n}\left(\boldsymbol{x})\right)>0\right\}\). Asumimos que:
\(\{y_i=g_i\left(\boldsymbol{x}\right)\}_{i=1,\ldots,n}\) definen una transformación 1 a 1 de \(\mathfrak{X}\) a \(\mathfrak{Y}\).
Las primeras derivadas parciales de \(x_i=g_i^{-1}\left(\boldsymbol{y}\right)\) son continuas en \(\mathfrak{Y}\).
El Jacobiano de la transformación no se anula para \(\boldsymbol{y} \in \mathfrak{Y}\).
Definición D.1 (\(\chi^2(k)\)) La v.a. \(X\) tiene distribución \(\chi^2(k)\) ssi tiene fd \[
f_X(x)=\frac{1}{2^{k/2}\Gamma(k / 2)} x^{k / 2-1} \exp\left(-\frac{1}{2}x\right) I_{(0, \infty)}(x),\ \ k\in \mathbb{N}.
\]
Proposición D.1 (FGM Ji cuadrada) La función generadora de momentos de \(X \sim \chi^2(k)\), \(m_X(s)=\mathbb{E}\left[\exp\{sX\}\right]\), es igual a \[
m_X(s)= (1-2 s)^{-k / 2}, \qquad \text{para } s<\frac{1}{2}.
\]
Demostración
\[
\begin{aligned}
m_X(s) &= \mathrm{E}[\exp (s X)] = \int_{-\infty}^{\infty} \exp (s x) f x(x) d x \\
&= c \int_0^{\infty} \exp (sx) x^{k / 2-1} \exp \left(-\frac{1}{2} x\right) dx \\
&= c \int_0^{\infty} x^{k / 2-1} \exp \left(-\left(\frac{1}{2}-s\right) x\right) dx \\
&= c \int_0^{\infty}\left(\frac{2y}{1-2s} \right)^{k/2-1} \exp (-y) \frac{2}{1-2s} dy \qquad \text{considerando } y=\left(\frac{1}{2}-s\right)x\\
&= c \int_0^{\infty}\left(\frac{2}{1-2s}\right)^{k/ 2} y^{k/ 2-1} \exp (-y) d y \\
&= c\left(\frac{2}{1-2s}\right)^{k/2} \int_0^{\infty} y^{k/ 2-1} \exp (-y) d y \\
&= c\left(\frac{2}{1-2s}\right)^{n / 2} \Gamma(k/2) \\
&= \frac{1}{2^{k / 2} \Gamma(k/2)}\left(\frac{2}{1-2s}\right)^{k/2} \Gamma(k/2) \\
&= \frac{1}{2^{k/2}} \frac{2^{k/2}}{(1-2s)^{k/2}} = (1-2s)^{-k/2}.
\end{aligned}
\]
De la FGM tenemos que si \(X\sim \chi^2(k)\),
\(\mathbb{E}(X)=m_X^{\prime}(0)=k\)
\(\text{Var}(X)=m_X^{\prime\prime}(0)-k^2=2k\).
Teorema D.2 Si \(X_i, i=1,2, \ldots, m\), son v.a. independientes y tal que \(Z_i\sim N(\mu_i,\sigma_i^2)\), entonces \[
U:=\sum_{i=1}^m\left(\frac{X_i-\mu_i}{\sigma_i}\right)^2 \sim \chi^2(m)
\]
Demostración
Como \(\left(X_1-\mu_1\right) / \sigma_1 \sim N(0,1)\) podemos escribir \[
Z_i=\frac{\left(X_i-\mu_i\right)}{\sigma_i}.
\] Por otro lado, \[
\begin{aligned}
m_U(s) & =\mathbb{E}[\exp(s U)]=\mathbb{E}\left[\exp \left(s \sum Z_i^2\right)\right] \\
& =\mathbb{E}\left[\prod_{i=1}^n \exp(s Z_i^2)\right]=\prod_{i=1}^k \mathbb{E}\left[\exp( s Z_i^2)\right].
\end{aligned}
\] Como \[
\begin{aligned}
\mathbb{E}\left[\exp( s Z_i^2)\right] & =\int_{-\infty}^{\infty} \exp\{s z^2\}\left(\frac{1}{\sqrt{2 \pi}}\right) \exp\left\{-\frac{1}{2} z^2\right\} dz \\
& = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} \exp\left\{-\frac{1}{2}(1-2s)z^2\right\} dz\\
& = \frac{1}{\sqrt{1-2s}} \int_{-\infty}^{\infty} \frac{\sqrt{1-2s}}{\sqrt{2\pi}} \exp\left\{-\frac{1}{2}(1-2s) z^2\right\} dz\\
& = \frac{1}{\sqrt{1-2s}}\int_{-\infty}^{\infty}\phi(y)dy, \qquad \text{considerando } y=\left(\sqrt{1-2s}\right)z\\
& = \frac{1}{\sqrt{1-2s}}, \qquad \text { para } s<\frac{1}{2}.
\end{aligned}
\] Entonces \[
\begin{aligned}
m_U(s) &= \prod_{i=1}^m \mathbb{E}\left[\exp s Z_i^2\right]\\
&=\prod_{i=1}^m \frac{1}{\sqrt{1-2 s}} =\left(\frac{1}{1-2s}\right)^{m/2} \quad \text { para } s<\frac{1}{2},
\end{aligned}
\] que corresponde a la fgm de una v.a. \(X\sim \chi^2(m)\).
Para demostrar Teorema D.4, primero demostramos el siguiente teorema
Teorema D.3 Sea \(X_1, \ldots, X_{m}\) una m.a. de una población con distribución \(N(\mu,\sigma^2)\), entonces \(\overline{X}\) es independiente de \((X_1-\overline{X},\ X_2-\overline{X},\ \ldots, X_m-\overline{X}\ )^{\top}\).
Para demostrar esto, tenemos que mostrar que \(\overline{X}\) y \(X_1-\overline{X}, X_2-\overline{X},\ldots, X_m-\overline{X}\) tienen distribución conjunta Normal multivariada y que \(\operatorname{Cov}(\overline{X},X_i−\overline{X})=0\) para \(i=1,\ldots,m\).
Demostración
Sea \(Q\) la matriz \(m\times m\) para la que \[
Q X=Q\left[\begin{array}{c}
X_1 \\
\vdots \\
X_m
\end{array}\right]=\left[\begin{array}{c}
X_1-\overline{X} \\
\vdots \\
X_m-\overline{X}
\end{array}\right]
\] Esto es, \[
Q =I_m-\frac{1}{m}(1_{m\times m})=\left(\begin{array}{cccc}
(m-1)/m &-1/m&\cdots&-1/m \\
-1/m &(m-1)/m&\cdots&-1/m \\
\vdots &\vdots&\ddots&\vdots\\
-1/m &-1/m&\cdots&(m-1)/m \\
\end{array}\right)
\] y satisface que \(Q\) es simétrica e idempotente.
Por otro lado \((I_m-Q)\) no sólo es también una proyección ortogonal sino que \[
(I_m-Q)X=X-QX=\left[\begin{array}{c}
\overline{X} \\
\vdots \\
\overline{X}
\end{array}\right]
\] Como \(Y:=(\overline{X},X_1-\overline{X}, X_2-\overline{X},\ldots, X_m-\overline{X})\) se puede obtener de la transformación lineal \[
Y=\binom{(1/m)1_{1\times m}}{Q}X,
\] entonces \(Y\) tiene distribución Normal multivariada.
Para corroborar la independencia de \(\overline{X}\) y \(X_i-\overline{X}\) para toda \(i\), examinamos \[
\operatorname{Cov}((I_m-Q)X, QX) = (I_m-Q)(\operatorname{Cov}(X, X)) Q^{\top} = (I_m-Q)\left(\sigma^2 I_m\right) Q^{\top} =\sigma^2 (I_m-Q) Q = 0.
\]
Teorema D.4 Sea \(X_1, \ldots, X_{m}\) una m.a. de una población con distribución \(N(\mu,\sigma^2)\), entonces \[
\frac{1}{\sigma^2} \sum_1^{m}\left(X_i-\overline{X}\right)^2 \sim \chi^2(m-1)
\]
La demostración la presentaremos posteriormente como la aplicación de un teorema.
D.1.1 No centrada
Definición D.2 (Ji cuadrada no centrada) Sean \(X_1, \ldots, X_n\) v.a.’s independientes, tales que \(X_i \sim N\left(\mu_i, 1\right)\). Entonces \[
W=\sum_{i=1}^n X_i^2
\] tiene distribución Ji cuadrada no centrada con \(n\) grados de libertad y parametro de no centralidad \(\gamma=\sum_{i=1}^n \mu_i^2 / 2=\boldsymbol{\mu}^{\top}\boldsymbol{\mu}/2\). Denotamos \(W \sim \chi^2(n, \gamma)\).
De la definición de Ji cuadrada no centrada tenemos que si \(X \sim \chi^2(r, \gamma)\) y \(Y \sim \chi^2(s, \delta)\) con \(X\) y \(Y\) independendientes, entonces \((X+Y) \sim \chi^2(r+s, \gamma+\delta)\).
Proposición D.2 (FGM Ji cuadrada no centrada) Si \(W\sim \chi^2(n, \gamma)\), \[
m_W(s)=\mathbb{E}\left[\exp\{sX\}\right]=(1-2s)^{-n/2} \exp\left\{-\gamma\left[1-\frac{1}{1-2s}\right]\right\}.
\]
Demostración
\[
m_W(s)=\mathbb{E}\left[\exp(s\boldsymbol{X}^\top\boldsymbol{X})\right]=\mathbb{E}\left[\prod_{i=1}^n\exp(sX_i^2)\right]=\cdots
\] Completar como ejercicio.
Proposición D.3 La función de densidad de \(W\sim \chi^2(n, \gamma)\) es \[
f_W(w)=\sum_{i=0}^{\infty}\frac{\gamma^i\exp(-\gamma)}{i!}f_{X_i}(w),
\] donde \(f_{X_i}\) es la fd de \(X_i\sim \chi^2(n+2i)\), \(i=1,\cdots\).
Esta proposición nos dice que la distribución Ji cuadrada es equivalente a la mezcla de distribuciones Ji cuadradas independientes, con distribución de mezcla Poisson.
Demostración
La demostración se puede hacer mostrando que la FGM de la fd en Proposición D.3 coicide con la de la densidad Ji cuadrada no centrada obtenida en Proposición D.2.
De la FGM tenemos que si \(W\sim \chi^2(n,\gamma)\),
\(\mathbb{E}(W)=n+2\gamma\)
\(\text{Var}(W)=2n+8\gamma\).
D.1.2 Percentil
Percentiles y cuartiles son una medida de variación que describe que tan dispersa es una distribución o datos. Los percentiles dividen los datos en 100 partes iguales, así que se describen de 0 a \(100\%\), mientras que los cuartiles los dividen de 0 a 1. Así un percentile de \(\alpha \times 100\%\) equivale al cuartil \(\alpha\), con \(\alpha \in (0,1).\)
El percentil \(\alpha \times 100 \%\) de las distribuciones, centrada \(\chi^2(r)\) o no centrada \(\chi^2(r, \gamma)\) son los valores \(\chi^2(\alpha; r)\) y \(\chi^2(\alpha; r,\gamma)\) que satisface: \[
\mathbb{P}\left(\chi^2(r) \leq \chi^2(\alpha; r)\right) = \alpha \ \ \ \text{y } \ \ \ \mathbb{P}\left(\chi^2(r, \gamma) \leq \chi^2(\alpha; r, \gamma)\right) = \alpha,
\] respectivamente.
Nota
La fd de \(X \sim \chi^2(n, \gamma)\) se puede también expresar como \[
f_X(x)=\frac{1}{2} \exp\left\{-(x+\gamma) / 2\right\}\left(\frac{x}{\gamma}\right)^{n / 4-1 / 2} \mathbb{I}_{n / 2-1}\left(\sqrt{\gamma\, x}\ \right),
\]
donde \(\mathbb{I}_\nu(y)\) es la función de Bessel modificada: \[
\mathbb{I}_\nu(y)=(y / 2)^\nu \sum_{j=0}^{\infty} \frac{\left(y^2 / 4\right)^j}{j!\,\Gamma(\nu+j+1)}.
\]
Definición D.3 (\(t\) de Student) La v.a. \(X\) tiene distribución \(t\) de Student ssi tiene fd \[
f_X(x)=\frac{\Gamma[(k+1) / 2]}{\sqrt{k \pi}\ \Gamma(k / 2)}
\left(1+\frac{x^2}{k}\right)^{-(k+1)/2}I_{\mathbb{R}}(x), \quad k>0.
\]
La distribución \(t\) de Student que se puede derivar de la razón de una v.a. Normal Estándar y una función de una v.a Ji cuadrada.
Teorema D.5 Si \(Z\sim N(0,1)\), \(U\sim \chi^2(k)\) y \(Z\) y \(U\) independientes, entonces \[
X:=\frac{Z}{\sqrt{U / k}} \sim t(k)
\]
Demostración
La distribución conjunta de \(Z\) y \(U\) es
\[
f_{Z, v}(z, u)=\frac{1}{\sqrt{2 \pi}} \frac{1}{2^{k/2}\Gamma(k/2)} u^{k/2-1} \exp\left(-\frac{1}{2} u\right) \exp\left(-\frac{1}{2} z^2\right) I_{(0, \infty)}(u)I_{\mathbb{R}}(z).
\] Usamos el Teorema D.1 y consideramos la trasformación 1 a 1: \[
X=\frac{Z}{\sqrt{U / k}} \ \ \ \ \ \text{ y }\ \ \ \ \ Y=U.
\] cuyo Jacobiano es \(\sqrt{y / k}\) . Así \[
\begin{aligned}
f_{X, Y}(x, y) & =\sqrt{\frac{y}{k}} \frac{1}{\sqrt{2 \pi}} \frac{1}{2^{k/2}\Gamma(k / 2)} y^{k/2-1} \exp\left(-\frac{1}{2} y\right) \exp\left(-\frac{1}{2} \frac{x^2 y}{k}\right) I_{(0, \infty)}(y)I_{\mathbb{R}}(z).
\end{aligned}
\] Marginalizando, obtenemos \[
\begin{aligned}
f_X(x) & =\int_{-\infty}^{\infty} f_{X, Y}(x, y) d y \\
& =\frac{1}{\sqrt{2 k \pi}} \frac{1}{2^{k/2}\Gamma(k / 2)} \int_0^{\infty} y^{k/2-1+(1/2)} \exp\left[-\frac{1}{2}\left(1+\frac{x^2}{k}\right) y\right] dy \\[10pt]
& =\frac{1}{\sqrt{2 k \pi}} \frac{1}{2^{k/2}\Gamma(k/2)} \frac{2^{(k+1)/2}}{\left(1+x^2 / k\right)^{(k+1)/2}}\int_0^{\infty} v^{(k+1)/2} \exp\left[-v\right] dv,\quad \text{considerando } v=\frac{1}{2}\left(1+\frac{x^2}{k}\right)y \\[10pt]
& =\frac{\Gamma[(k+1) / 2]}{\sqrt{k \pi}\Gamma(k/2)} \frac{1}{\left(1+x^2 / k\right)^{(k+1)/2}}.
\end{aligned}
\] para \(x\in \mathbb{R}\) y \(k>0\).
La distribución t de Student con un grado de libertad (k=1) corresponde a la distribución Cauchy con parámetro de localización 0.
Se puede demostrar que si \(X\sim t(k)\) tends to be a Standard Normal distribution as \(k\rightarrow \infty\). En términos prácticos, para \(k\geq 30\) ambas distribuciones son tan similares que las diferencias para producir intervalos o pruebas de hipótesis son despreciables.
D.2.1 No centrada
Definición D.4 (\(t\) de Student no centrada) Sea \(X \sim N(\mu, 1)\) y \(Y \sim \chi^2(n)\) con \(X\) y \(Y\) independientes. Entonces \[
W=\frac{X}{\sqrt{Y / n}}
\] tiene una distribución \(t\) de Student no centrada, con \(n\) grados de libertad y parametro de localización \(\mu\). Esto lo denotamos como \(W \sim t(n, \mu)\). Si \(\mu=0\), decimos que la distribución es centrada.
D.2.2 Percentil
El percentil \(\alpha \times 100 \%\) de esta distribución centrada y no centrada, lo denotamos como \(t(\alpha; n)\) y \(t(\alpha; n, \mu)\), respectivamente.
Ejemplo: Funciones de densidad de \(t\) de Student
library(ggplot2)# Generar datosdf_t<-data.frame( x =rep(seq(-5, 5, length.out =100), 3), densidad =c(dt(seq(-5, 5, length.out =100), df =1),dt(seq(-5, 5, length.out =100), df =3),dt(seq(-5, 5, length.out =100), df =10)), grupo =factor(rep(c("df = 1", "df = 3", "df = 10"), each =100)))# Crear el primer gráficoggplot(df_t, aes(x =x, y =densidad, color =grupo))+geom_line(size =1)+labs(title ="Densidad distribución t de Student", x ="Valor", y ="Densidad")+theme_minimal()+theme( plot.title =element_text(size =20), axis.title =element_text(size =17), axis.text =element_text(size =17), legend.title =element_text(size =17), legend.text =element_text(size =17))# Generar datosdf_t_nc<-data.frame( x =rep(seq(-5, 15, length.out =100), 3), densidad =c(dt(seq(-5, 25, length.out =100), df =3, ncp=1),dt(seq(-5, 25, length.out =100), df =3, ncp=3),dt(seq(-5, 25, length.out =100), df =3, ncp=10)), grupo =factor(rep(c("df = 1", "df = 3", "df = 10"), each =100)))# Crear el segundo gráficoggplot(df_t_nc, aes(x =x, y =densidad, color =grupo))+geom_line(size =1)+labs(title ="Densidad de t de Student No Centrada (k=3)", x ="Valor", y ="Densidad")+theme_minimal()+theme( plot.title =element_text(size =20), axis.title =element_text(size =17), axis.text =element_text(size =17), legend.title =element_text(size =17), legend.text =element_text(size =17))
t de Student centrada
t de Student no centrada
Código
import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom scipy.stats import tfrom scipy.stats import nct# Generar datos para la distribución t de Studentx = np.linspace(-5, 5, 100)df = pd.DataFrame({'x': np.tile(x, 3),'densidad': np.concatenate([ t.pdf(x, df=1), t.pdf(x, df=3), t.pdf(x, df=10) ]),'grupo': np.repeat(['df = 1', 'df = 3', 'df = 10'], 100)})# Crear el primer gráficoplt.figure(figsize=(10, 6))for label, df_group in df.groupby('grupo'): plt.plot(df_group['x'], df_group['densidad'], label=label)plt.title('Densidad distribución t de Student', fontsize=20)plt.xlabel('Valor', fontsize=17)plt.ylabel('Densidad', fontsize=17)plt.legend(title='Grupo', fontsize=17, title_fontsize=17)plt.grid(True)plt.show()# Generar datos para la distribución t de Student con locx_nc = np.linspace(-5, 15, 100)df_nc = pd.DataFrame({'x': np.tile(x_nc, 3),'densidad': np.concatenate([ nct.pdf(x_nc, df=3, nc=1), nct.pdf(x_nc, df=3, nc=3), nct.pdf(x_nc, df=3, nc=10) ]),'grupo': np.repeat(['nc = 1', 'nc = 3', 'nc = 10'], 100)})# Crear el segundo gráficoplt.figure(figsize=(10, 6))for label, df_group in df_nc.groupby('grupo'): plt.plot(df_group['x'], df_group['densidad'], label=label)plt.title('Densidad de t de Student Desplazada (k=3)', fontsize=20)plt.xlabel('Valor', fontsize=17)plt.ylabel('Densidad', fontsize=17)plt.legend(title='Grupo', fontsize=17, title_fontsize=17)plt.grid(True)plt.show()
t de Student centrada
t de Student no centrada
D.3 Distribución \(F\) de Fisher
Definición D.5 (\(F\) de Fisher) La v.a. \(X\) tiene distribución \(F\) de Fisher con parámetros \((m,n)\) ssi tiene fd \[
f_X(x)=\frac{\Gamma[(m+n) / 2]}{\Gamma(m / 2) \Gamma(n / 2)}\left(\frac{m}{n}\right)^{m / 2} \frac{x^{(m-2) / 2}}{[1+(m / n) x]^{(m+n) / 2}} I_{(0, \infty)}(x), \quad m, n>0.
\]
Teorema D.6 Si \(U\) y \(V\) son v.a.independientes y \(U\sim \chi^2(m)\), \(U\sim \chi^2(n)\), entonces \[
X:=\frac{U/m}{V/n}\sim F(m,n).
\]
Demostración
Para encontrar la distribución de \(X\) y usando el Teorema D.1, tenemos que definir una transformación 1 a 1 de las variables \((U,v)\). Consideramos \[
X = \frac{U / m}{V / n} \ \ \ \ \text{ y } \ \ \ \ Y=V.
\] Entonces con el TCV obtendremos la distribución conjunta de \((X,Y)\), de donde marginalizamos la de \(X\). El Jacobiano de la transformación es \((m/n)y\), así que \[
f_{X,Y}(x,y) = \frac{1}{\Gamma(m / 2) \Gamma(n / 2) 2^{(m+n) / 2}}\left(\frac{m}{n} x y\right)^{(m-2) / 2} y^{(n-2) / 2} \exp\left\{-\frac{1}{2}\left[\frac{m}{n}xy+y\right]\right\}\times \left(\frac{m}{n} y\right)I_{(0, \infty)}(x)I_{(0, \infty)}(y)
\] Entonces, \[
\begin{aligned}
f_X(x) & =\int_0^{\infty} f_{X, Y}(x, y) d y \\
& =\frac{1}{\Gamma(m / 2) \Gamma(n / 2) 2^{(m+n) / 2}}\left(\frac{m}{n}\right)^{m / 2} x^{(m-2) / 2} \int_0^{\infty} y^{(m+n-2) / 2} \exp\left\{-\frac{1}{2}\left[\frac{m}{n}x+1\right] y\right\} d y \\[10pt]
& =\frac{\Gamma[(m+n) / 2]}{\Gamma(m / 2) \Gamma(n / 2)}\left(\frac{m}{n}\right)^{m / 2} \frac{x^{(m-2) / 2}}{[1+(m / n) x]^{(m+n) / 2}} I_{(0, \infty)}(x).
\end{aligned}
\]\(\therefore X\sim F(m,n)\).
Corolario D.1 Sea \(X_1, \ldots, X_{m}\) es una m.a. de una población con distribución \(N(\mu_X,\sigma^2)\) y sea \(Y_1, \ldots, Y_{n}\) una m.a. de una población \(N(\mu_Y,\sigma^2)\). Si las dos muestras son independientes entonces \[
\frac{1}{\sigma^2} \sum_1^{m}\left(X_i-\overline{X}\right)^2 \sim \chi^2(m-1)\ \ \ \ \ \text{ y } \ \ \ \ \
\frac{1}{\sigma^2} \sum_1^{n}\left(Y_i-\overline{Y}\right)^2 \sim \chi^2(n-1).
\] Así que el estadístico \[
\frac{\sum\left(X_i-\bar{X}\right)^2 / (m-1)}{\sum\left(Y_j-\bar{Y}\right)^2 / (n-1)}\sim F(m-1,n-1).
\]
D.3.1 No centrada
Definición D.6 (\(t\) de Student no centrada) Sea \(X \sim \chi^2(r, \gamma)\) y \(Y \sim \chi^2(s, 0)\) con \(X\) y \(Y\) independientes. Entonces \[
W=\frac{X / r}{Y / s}
\] se dice que tiene distribución \(F\) no centrada, con grados de libertad numerador \(r\), denominador \(s\), y parametro de no centralidad \(\gamma\). Denotamos esta distribución como \(W \sim F(r, s, \gamma)\). Si \(\gamma=0\), usamos la notación previamente introducida, \(W \sim F(r, s)\).
D.3.2 Percentil
El percentil \(\alpha \times 100 \%\) de \(F(r, s)\) lo denotamos como \(F(\alpha; r, s)\).