Edit: Je ne suis pas super convaincu que parler d'«ergodicité» soit si pertinent que ça ici, parce que même du point de vue d'un joueur individuel, on a une espérance positive. Par contre, quasi-totalité des joueurs est condamné à perdre (quand le nombre d'itérations tend vers l'infini, la probabilité de gagner tend vers zéro de manière salement rapide). C'est juste que le gain hypothétique pour celui qui va effectivement gagner augmente plus vite que sa probabilité de gagner ne s'effondre, donc l'espérance de gain augmente, même si en pratique tout le monde perd.
Edit 2:
En y réfléchissant, et après avoir fait quelques petites simulations, je comprends pourquoi il parle d'ergodicité, même si ça n'en est pas réellement: quand on fait la somme théorique sur la population totale, on est censé avoir une progression de la richesse globale. Mais en pratique, comme tous les joueurs perdent : en faisant 100 fois tourner une simulation avec 500 000 parieurs et 2000 itérations du pari, je n'ai eu que 8 cas où il y avait un gagnant: quatre qui avait gagné à peine 1,3% de leur mise (finissent à 103 pour une mise de départ de 100), un qui avait gagné 1,5 fois sa mise, un 14 fois sa mise, un 38 fois sa mise et un 1540 fois sa mise.
Là où l'approche «somme sur la population» nous prévoyait 5% de croissance sur 2000 itérations (soit une croissance astronomique autour de 10^42), la réalité nous donne en fait une perte colossale: pratiquement tout le monde finit à 0, et les gains cumulés des rares qui ont gagné s'élèvent à peine moins de 1600 fois la mise de départ individuelle, là où la perte et d'environ 5 millions de fois la mise. De ce point de vue, on peut effectivement considérer que la situation n'est pas du tout ergodique.
— Permalink
Et aussi: https://www.chiark.greenend.org.uk/~sgtatham/quasiblog/aperiodic-tilings/
— Permalink
Je copie-colle ici ma réponse postée sur HN, parce que je l'aime bien :
The idea of prolonging a function out of its definition domain with an arbitrary value that doesn't make it continuous is arguably a curious one.
From an algebra perspective (the one given in the blog post) it may be fine, but from a calculus perspective it's really not.
The lack of continuity really hurts when you add floating points shenanigans into the mix, just a fun example:
When you have 1/0 = 0 but 1/(0.3 - 0.2 - 0.1) = 36028797018963970. Oopsie, that's must be the biggest floating point approximation ever made.
— Permalink
Rien de ce qui est dit dans cette vidéo ne m'était étranger, mais elle est quand même vachement bien faite.
— Permalink
Even more surprising, when Daniels averaged all his data, the average hand did not resemble any individual’s measurements. There was no such thing as an average hand size. “When I left Harvard, it was clear to me that if you wanted to design something for an individual human being, the average was completely useless,” Daniels told me. […]
He decided to find out. Using the size data he had gathered from 4,063 pilots, Daniels calculated the average of the 10 physical dimensions believed to be most relevant for design, including height, chest circumference and sleeve length. These formed the dimensions of the “average pilot,” which Daniels generously defined as someone whose measurements were within the middle 30 per cent of the range of values for each dimension. So, for example, even though the precise average height from the data was five foot nine, he defined the height of the “average pilot” as ranging from five-seven to five-11. Next, Daniels compared each individual pilot, one by one, to the average pilot.
Before he crunched his numbers, the consensus among his fellow air force researchers was that the vast majority of pilots would be within the average range on most dimensions. After all, these pilots had already been pre-selected because they appeared to be average sized. (If you were, say, six foot seven, you would never have been recruited in the first place.) The scientists also expected that a sizable number of pilots would be within the average range on all 10 dimensions. But even Daniels was stunned when he tabulated the actual number.
Zero.
Out of 4,063 pilots, not a single airman fit within the average range on all 10 dimensions.
Cette histoire est super intéressante, parce qu'elle illustre un phénomène qui ne s'applique pas seulement à la morphologie des gens, mais quasiment à tout: la moyenne, grandeur pourtant utilisée de manière systématique, n'a quasiment jamais de sens …
Un autre exemple que j'aime bien pour illustrer ce phénomène :
Prenez une série de cubes, de largeur croissante : 1cm, 2cm, 3cm, etc. jusqu'à n cm.
Leur volume est donc la suite : 1mL, 8mL, 27mL, …, n³ mL.
Le «côté moyen» vaut (n+1)/2. Donc le volume d'un tel cube vaut (n+1)³/8.
Mais le volume moyen vaut n(n+1)²/4. Il ne peut donc pas y avoir de «cube moyen», qui ait à la fois le volume moyen et le côté moyen !
— Permalink
]]>Formally, BM is the integral of white noise.
Un blog assez cool qui parle de maths de manière assez vulgarisée :
https://www.drgoulu.com/2009/04/18/nombres-mineralises/
— Permalink
On cherche Ă montrer la proposition D => 5
(D implique 5), il faut donc retourner toutes les cartes qui vont dans ce sens. Mais cette proposition peut aussi s'exprimer sous la forme ^5 => ^D
(«non 5» implique «non D»), qui est la contraposée de la première proposition.
Ça implique donc de retourner les carte avec un D
, mais aussi les cartes avec un chiffre qui n'est pas 5
.
— Permalink
WTF ?!
via sebsauvage
]]>une discussion sur es-discuss où j'ai appris des trucs intéressants:
Entre autre :
1 + 1e16 - 1e16 === 0
(alors qu'on pourrait légitimement s'attendre à ce que ça vaille 1)
Mais 1 + (1e16 - 1e16)
vaut bien 1.
=> La somme sur les nombres Ă virgule flottante n'est pas associative.
On y apprend aussi l'existence d'algo pour faire des sommes de flottants sans perdre trop de précision, comme la somme de Kahan (https://en.wikipedia.org/wiki/Kahan_summation_algorithm).
J'ai vraiment du mal avec les nombres à virgule flottantes, je me demande pourquoi on traine encore cette merde au XXIème siècle. (quand tu as des nombres sur 8-bits je veux bien, mais sur 64 tu as toute la place que tu veux pour avoir des nombres à la fois très précis et très grands : c.f. http://dec64.com/ dont j'avais déjà parlé ici : http://stymaar.fr/links/?4FxJ5Q)
— Permalink
(tiré d'une discussion sur es-discuss à propos de la récursivité avec des “Arrow function“ :
let Y = F => (x=>F(y=>(x(x))(y)))(x=>F(y=>(x(x))(y)));
x.map(Y(fact=>x=> do {
if( x <= 1) {
1;
} else {
x * fact(x-1);
}
));
OĂą Y est le Y-combinator de Curry : https://en.wikipedia.org/wiki/Fixed-point_combinator#Fixed_point_combinators_in_lambda_calculus
Bref ça ne sert absolument à rien mais je trouve ça drôle ^^
— Permalink
:)
— Permalink
Ahah effectivement, c'est assez contre-intuitif. D'ailleurs les pourcentages sont globalement contre-intuitifs et il faut toujours se méfier en les manipulant. L'un des points les plus troublant est qu'ils ne sont pas additif, 2 augmentations de 20% ne font pas une augmentation de 40%, pas plus qu'une baisse de 20% suivit d'une hausse de 20% ne donne le résultat initial.
— Permalink
Une lib pour faire des opération visuelles sur des graphs
— Permalink
c'est marrant, par contre le score obtenu ne sert pas à grand chose parce qu'il dépend de la taille du cercle …
— Permalink
Lien entre la théorie de la compléxité et la philosophie, ça a l'air intéressant !
— Permalink
Une introduction aux chaînes de Markov.
— Permalink
Effectivement ici c'est d'actualité ^^
— Permalink
L'ensemble des ensemble qui se ne se contiennent pas eux mĂŞme se contient-il lui mĂŞme ?
J'aime beaucoup ce paradoxe :p
— Permalink
Un algo et une démo sympa autour du problème du voyageur de commerce (que je connais bien, pour avoir écrit des algorithmes génétique pour le résoudre dans le cadre de mon TIPE en prépas)
— Permalink
'Dude, wait -- I'm not American! So my risk is basically zero!'
— Permalink
Voir aussi : https://jakevdp.github.io/blog/2014/11/11/the-hipster-effect-interactive/
— Permalink
Énorme :)
J'adore xkcd !!!
— Permalink
Cet article est assez génial : autour d'une discussion sur les grand nombre, on apprend plein de chose sur l'histoire des mathématiques, la théorie de la calculabilité (et le lien entre le problème de l'arrêt et l'indécidabilité) et le fonctionnement du cerveau en terme de mathématiques.
La partie centrale qui parle de machine de Turing et de fonctions non calculable est un peu technique, mais il ne faut pas s'y arrêter, la fin est aussi très intéressante et très abordable.
via : http://blog.xkcd.com/2007/03/14/large-numbers/
— Permalink
Les gens qui s'amusent Ă classer les nombre ne doivent vraiment pas avoir grand chose de leur vie ^^
Par contre c'est marrant : 1111111111111111111 (19 "1" consécutifs) et 11111111111111111111111 (23 "1" consécutifs) sont premiers ^^
— Permalink
Un communiqué du CNRS disant à peu près ceci :
"Bonjour, alors on voulais vous dire qu'Antoine Joux a encore fait mumuse avec le logarithme discret mais cette fois-ci il l'a vraiment abimé : si ça se trouve il a détruit le Diffie-Hellman et le RSA mais on n'en est pas encore tout à fait sûrs. Désolés"
L'article original est ici : http://eprint.iacr.org/2013/400.pdf
Il s'agit d'un algorithme permettant de calculer un logarithme discret en n^log(n) dans le cas d'un corps de caractéristique petite. Et n^log(n) c'est vraiment beaucoup plus petit que exp(n). Dans le cas où n vaut 256 par exemple ça fait une compléxité de 2^64, ce qui est trop faible pour être concidéré comme sûr en l'état actuel de la puissance de calcul (la limite aujourd'hui est établie autour de 2^80)
Cette article fait suite Ă celui lĂ : https://eprint.iacr.org/2013/095.pdf
d'où ma remarque sur le fait qu'Antoine Joux avait encore joué avec le logarithme discret.
Il faudra que je trouve le temps de le relire en détail.
via sebsauvage
— Permalink
"presque tous les nombres réels sont normaux, dans le sens où l'ensemble des nombres non-normaux est de mesure nulle"
et pourtant :
"Il est extrêmement difficile de démontrer la normalité de nombres pourtant simples. "
La quasi-tatalité des nombres sont normaux, mais on n'en connait qu'un nombre extrêmement faible ^^
<3 Maths !
— Permalink