Page 1 sur 1

Information et entropie

Message non luPublié :mercredi 26 février 2014 à 01:39
par cobra-san
Salut à tous,
Si je prend la théorie du big-bang, je comprends, que au début la quantité d'information, contenue dans l'univers est minimale.
Aussi avec l'inflation et l'expansion, la quantité d'information augmente, tout comme l'entropie.
Alors, le degré d'information a-t-il un lien avec l'augmentation de l'entropie?
Le problème étant que dans une expansion exponentielle, l'entropie augmente, et au final plus rien qu'un espace et quelques particules flottant dans un univers au degré 0 et dès lors, disparition de l'information.
Donc, soit je pose mal le problème, soit il n'y pas de lien entre information et entropie, soit le fait que je n'y connaisse rien y est pour quelque chose?

cobra-san

Re: Information et entropie

Message non luPublié :mercredi 26 février 2014 à 10:22
par bongo
Salut à tous,
Si je prend la théorie du big-bang, je comprends, que au début la quantité d'information, contenue dans l'univers est minimale.
Pourquoi donc ? Je pense qu’il y a un contre-sens là. L’entropie c’est la mesure du niveau de désordre, plus le désordre est important, et plus l’entropie est important.
Quand on dit que le désordre est important, ça veut dire que tu n’as que peu d’information sur le système. Donc quand l’information augmente l’entropie diminue, et vice-versa.

Re: Information et entropie

Message non luPublié :mercredi 26 février 2014 à 13:10
par cobra-san
Pour moi l'entropie c'est l'accroissement du désordre, mais je ne savais pas que c'était aussi le manque d'information.
Donc j'ai fait un lien entre deux termes qui s'opposent par définition.
De plus, cette réponse négative me rassure. Le chaos n'est pas vecteur d'information puisqu'il en est la négation, si j'ai bien compris.
Suis désolé par cette question.

Merci,
cobra-san

Re: Information et entropie

Message non luPublié :mercredi 26 février 2014 à 16:20
par bongo
Y a pas de souci.
J'ai un exemple en tête. Imagine que tu aies un livre, si les pages du livre sont dans l'ordre, tu as une information maximale.
Par contre si on met les livres dans le désordre, tu as moins d'information sur le livre, i.e. tu as besoin que je te dise par quelle page on commence etc...

S'il n'y a qu'une seule page dans le désordre, je te dis :
la page 1 est entre les pages 100 et 101 (là ça va ?).

Si tu as deux pages dans le désordre, je dois te donner 2 infos :
la page 1 est entre les pages 100 et 101 (là ça va ?).
la page 5 est entre les pages 15 et 16.

Si toutes les pages sont dans le désordre, je dois te donner l'ordre des pages :
19, 15, 101, 10 etc...

Donc si je dois te donner des informations, ça veut dire que tu n'as pas d'information sur le système. Plus c'est dans le désordre, et moins tu as d'information.

Re: Information et entropie

Message non luPublié :mercredi 26 février 2014 à 17:04
par cobra-san
Merci bongo,
Plus un état d'entropie est élevé, moins je dispose d'informations, et plus j'ai besoin d'informations sur le système étudié.
Les deux concepts sont plus clairs maintenant dans mon esprit.
C'était encore une fois confus, d'où le contre sens que tu as remarqué, tout de suite.

Merci,
cobra-san