|
||||||||||||||||||
Энтропия и информация открытых системМосковский государственный университет имени М.В. Ломоносова, Физический факультет, Ленинские горы 1 стр. 2, Москва, 119991, Российская Федерация В теории связи используются два определения Шеннона понятия «информация». Одно из них совпадает с энтропией Больцмана и является фактически мерой неопределенности при статистическом описании. Второе выражается через разность значений безусловной и условной энтропий. Конкретизация второго определения позволяет ввести меру информации открытых систем в зависимости от значений управляющих параметров. Выделен класс систем, для которых возможно равновесное состояние и имеет место закон сохранения информации и энтропии. Для равновесного состояния таких систем информация равна нулю, а энтропия максимальна. В процессах самоорганизации по мере удаления от равновесного состояния информация возрастает. Выделен и другой класс систем, для которых равновесное состояние невозможно. Для них вводится понятие «норма хаотичности» и рассматриваются два рода процессов самоорганизации. Дается соответствующее определение информации. Общие определения информации используются для классических и квантовых физических систем, а также при анализе результатов медико-биологического исследования.
|
||||||||||||||||||
|