• Information et entropie

  • Les autres théories ou peut être la votre...
Les autres théories ou peut être la votre...
 #29949  par cobra-san
 
Salut à tous,
Si je prend la théorie du big-bang, je comprends, que au début la quantité d'information, contenue dans l'univers est minimale.
Aussi avec l'inflation et l'expansion, la quantité d'information augmente, tout comme l'entropie.
Alors, le degré d'information a-t-il un lien avec l'augmentation de l'entropie?
Le problème étant que dans une expansion exponentielle, l'entropie augmente, et au final plus rien qu'un espace et quelques particules flottant dans un univers au degré 0 et dès lors, disparition de l'information.
Donc, soit je pose mal le problème, soit il n'y pas de lien entre information et entropie, soit le fait que je n'y connaisse rien y est pour quelque chose?

cobra-san
 #29953  par bongo
 
Salut à tous,
Si je prend la théorie du big-bang, je comprends, que au début la quantité d'information, contenue dans l'univers est minimale.
Pourquoi donc ? Je pense qu’il y a un contre-sens là. L’entropie c’est la mesure du niveau de désordre, plus le désordre est important, et plus l’entropie est important.
Quand on dit que le désordre est important, ça veut dire que tu n’as que peu d’information sur le système. Donc quand l’information augmente l’entropie diminue, et vice-versa.
 #29954  par cobra-san
 
Pour moi l'entropie c'est l'accroissement du désordre, mais je ne savais pas que c'était aussi le manque d'information.
Donc j'ai fait un lien entre deux termes qui s'opposent par définition.
De plus, cette réponse négative me rassure. Le chaos n'est pas vecteur d'information puisqu'il en est la négation, si j'ai bien compris.
Suis désolé par cette question.

Merci,
cobra-san
 #29956  par bongo
 
Y a pas de souci.
J'ai un exemple en tête. Imagine que tu aies un livre, si les pages du livre sont dans l'ordre, tu as une information maximale.
Par contre si on met les livres dans le désordre, tu as moins d'information sur le livre, i.e. tu as besoin que je te dise par quelle page on commence etc...

S'il n'y a qu'une seule page dans le désordre, je te dis :
la page 1 est entre les pages 100 et 101 (là ça va ?).

Si tu as deux pages dans le désordre, je dois te donner 2 infos :
la page 1 est entre les pages 100 et 101 (là ça va ?).
la page 5 est entre les pages 15 et 16.

Si toutes les pages sont dans le désordre, je dois te donner l'ordre des pages :
19, 15, 101, 10 etc...

Donc si je dois te donner des informations, ça veut dire que tu n'as pas d'information sur le système. Plus c'est dans le désordre, et moins tu as d'information.
 #29957  par cobra-san
 
Merci bongo,
Plus un état d'entropie est élevé, moins je dispose d'informations, et plus j'ai besoin d'informations sur le système étudié.
Les deux concepts sont plus clairs maintenant dans mon esprit.
C'était encore une fois confus, d'où le contre sens que tu as remarqué, tout de suite.

Merci,
cobra-san