Cette preuve utilise l`hypothèse d`une variance finie var (X i) = σ 2 {displaystyle operatorname {var} (x_ {i}) = sigma ^ {2}} (pour tous les i {displaystyle i}). Intuitivement, la différence absolue attendue croît, mais à un rythme plus lent que le nombre de flips, que le nombre de flips croît. Mais pour ce faire, XYZ devrait augmenter sa capitalisation boursière de $20 millions en deuxième année, $40 millions en troisième année, $80 millions en 4e année, etc. Il n`y a aucun principe selon lequel un petit nombre d`observations coïncideront avec la valeur attendue ou qu`une série d`une valeur sera immédiatement «équilibrée» par les autres (Voir l`erreur du joueur). Un exemple où la loi du grand nombre ne s`applique pas est la distribution Cauchy. Cela montre que la moyenne de l`échantillon converge dans la probabilité de la dérivée de la fonction caractéristique à l`origine, aussi longtemps que ce dernier existe. Sen & Singer (1993, théorème 2. La variance de la somme est égale à la somme des variances, qui est asymptotique à n 2/log n {displaystyle n ^ {2}/log n}. L`intégrabilité du Lebesgue de la XJ signifie que la valeur attendue E (XJ) existe selon l`intégration de Lebesgue et est finie. En particulier, il implique que, avec la probabilité 1, nous avons que pour tout ε > 0 l`inégalité | X ̄ n − μ | < ε {displaystyle | { overline {X}} _ {n}-mu | < varepsilon} est valable pour tous les grands n.

Par exemple, supposons que la société XYZ a récemment fondé une capitalisation boursière de $10 millions. L`API de GitHub est agréable pour la création de graphiques. Cela a été prouvé par Kolmogorov en 1930. Selon la loi du grand nombre, si un grand nombre de dés à six faces sont laminés, la moyenne de leurs valeurs (parfois appelé la moyenne de l`échantillon) est susceptible d`être proche de 3. Selon la Loi, la moyenne des résultats obtenus à partir d`un grand nombre d`essais devrait être proche de la valeur attendue, et aura tendance à se rapprocher à mesure que d`autres essais sont effectués. Pour l`interprétation de ces modes, voir convergence des variables aléatoires. Si nous remplaçons les variables aléatoires avec des variables gaussiennes ayant les mêmes variances, à savoir k/log journal log k, {displaystyle {sqrt {k/ log log log k}},} la moyenne à n`importe quel point sera également normalement distribuée.