Observation, informations et entropies. Valeur informationnelle de la mesure en physique statistique

Abstract

International audienceLa présente étude vise à établir une expression physiquement satisfaisante de l’entropie pour une distribution statistique continue, ce qui implique la prise en compte des paramètres caractéristiques d’un procédé d’observation, formalisés de façon convenable. Dans ce but, on définit d’abord trois classes de situations expérimentales de référence, correspondant aux trois propriétés classiques de sensibilité, fidélité et précision pour les appareils de mesure ; puis, dans le cas général où se superposent les trois situations de référence, on détermine l’information associée à l’observation d’un événement. L’analyse du processus de mesure conduit alors à définit l’entropie S(A,P) d’une variables aléatoire A, relativement à un procédé d’observation P. On étudie quelques propriétés de la fonction S(A,P) et on examine un certain nombre de cas particuliers. Les expressions de l’entropie proposées antérieurement pas Boltzmann, Gibbs, Shannon, Kolmogorov et Renyi se présentent comme des limites de l’entropie S(A,P) et leur signification physique se trouve précisée

    Similar works

    Full text

    thumbnail-image

    Available Versions