De Moivre y la distribución normal

Conocemos que la función distribución de la distribución normal está definida como $$\Phi_{\mu,\sigma^2}(x)=\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^xe^{-\frac{(u – \mu)^2}{2\sigma^2}}\, du ,\quad x\in\mathbb{R}$$

La función $$f(x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{(x – \mu)^2}{2\sigma^2}}$$ la conocemos como la función gaussiana, y a su integral la integrala gaussiana. Gauss la publicó en un trabajo de 1809, donde apareció el resultado famoso
$$\int_{-\infty}^\infty e^{-x^2}\,dx = \sqrt{\pi}.$$

Karl Pearson nos dice en [1] que el primer trabajo sobre esa función no fue de Gauss, sino de Abraham de Moivre. De Moivre había estado estudiando la distribución binomial de Jakob Bernoulli. En un trabajo de 1733, De Moivre considera la fórmula de Stirling
$$n! \simeq n^n e^{-n}\sqrt{2 \pi n}\qquad \text{cuando } n \to \infty,$$
para concluir que
$${n \choose k}\, p^k q^{n-k} \simeq \frac{1}{\sqrt{2 \pi npq}}\,e^{-\frac{(k-np)^2}{2npq}}, \text{ con } p+q=1, \, p, q > 0$$
En un trabajo recopilatorio De Moivre, Doctrine of Chances (1738), lo ejemplificaría para $p=\frac{1}{2}$; pero habría que esperar a 1812 para que Laplace lo formalizase en un teorema, el Teorema de Moivre-Laplace, donde nos aparece la integral $$\int_{\infty}^{\infty}e^{-\frac{x^2}{2}}\, dx.$$

Implícitamente, el teorema de Moivre-Laplace, nos ofrece una aproximación normal a la distribución binomial. Serán los trabajos de Gauss, en 1809, y Laplace, desde 1774 hasta su formulación en 1812[3], los que concretarán lo que hoy conocemos como distribución normal.

Laplace había tratado este tipo de integrales con anterioridad a Gauss, de hecho en 1774 [4] se plantea cómo resolver la integral anterior. Para ello estudia la integral
$$\int_0^1\frac{dx}{\sqrt{-\log x}}(*)$$ Si $y=\sqrt{-\log x}$, la integral se transforma en
$$2\int_0^\infty e^{-y^2}dy.$$
Veamos como Laplace resuelve $(*)$, para hacerlo utiliza la fórmula de Euler:
$$\int_0^1\frac{x^rdx}{\sqrt{1-x^{2s}}}\int_0^1\frac{x^{s+r}dx}{\sqrt{1-x^{2s}}}=\frac{1}{s(r+1)}\,\frac{\pi}{2},$$
para $r$ y $s$ positivos. Si hacemos tender $r\to 0$, tendremos
$$\int_0^1\frac{dx}{\sqrt{1-x^{2s}}}\int_0^1\frac{x^{s}dx}{\sqrt{1-x^{2s}}}=\frac{1}{s}\,\frac{\pi}{2},$$
Ahora haciendo $s\to 0$, y observando que $1-x^{2s}\simeq -2s\log x$ (por la relga de L’Hopital), tendremos
$$\left(\int_0^1\frac{dx}{\sqrt{-\log x}}\right)^2=\pi.$$
En consecuencia
$$\int_0^\infty e^{-y^2}dy=\frac{\sqrt{\pi}}{2}.$$

Es muy probable que Gauss no conociese este resultado de Laplace; igual que Laplace desconociese los trabajos de Gauss; ambos genios eran autosuficientes. Sus demostraciones fueron diferentes. Esa es una diferencia de las matemáticas respecto de otras ciencias: Si un resultado es cierto podemos encontrar su demostración por diferentes caminos, a veces, aparentemente poco relacionados.

Esta entrada participa en la Edición 6.1 del Carnaval de Matemáticas cuyo anfitrión es Tito Eliatron Dixit.

Referencia

  • [1]Karl Pearson, Historical Note on the Origin of the Normal Curve of Errors,Biometrika Vol. 16, No. 3/4 (Dec., 1924), pp. 402-404
  • [2]Abraham de Moivre, «Approximatio ad Summam Terminorum Binomii $(a + b)^n$ in Seriem expansi, 1733.
  • [3] P. S. Laplace, Théorie analytique des Probabilités, 1812.
  • [4] P. S. Laplace, Memoire sur la probabilite des causes par les evenemens, Oeuvres Completes 8, 27-65. (English trans. by S. Stigler as Memoir on the Probability of Causes of Events, Statistical Science 1 (1986), 364-378.)