Entropie : Décrypter la flèche du temps de l'univers
Cet article propose une explication accessible du concept d'entropie. L'entropie n'est pas simplement du « désordre », mais une mesure de l'incertitude au sein d'un système. Du point de vue de la théorie de l'information, l'entropie représente le nombre de bits nécessaires pour communiquer l'état d'un système ; en mécanique statistique, elle est liée au nombre de micro-états correspondant à un macro-état donné. Prenant l'exemple de billes dans une boîte, l'article illustre l'impact des macro-états, des micro-états et du grain grossier sur l'entropie et explique pourquoi le temps a une direction : l'univers a commencé dans un état de basse entropie, et les systèmes évoluent vers des états de haute entropie, non pas parce que les lois physiques sont irréversibles, mais parce que les états de haute entropie sont beaucoup plus probables. L'article aborde également des phénomènes apparemment en violation avec l'entropie, comme la séparation de l'huile et de l'eau, en montrant que l'entropie augmente réellement lorsque tous les attributs du système sont pris en compte.