Ю.Л. Климонтович Московский государственный университет имени М.В. Ломоносова, Физический факультет, Ленинские горы 1 стр. 2, Москва, 119991, Российская Федерация
В теории связи используются два определения Шеннона понятия «информация». Одно из них совпадает с энтропией Больцмана и является фактически мерой неопределенности при статистическом описании. Второе выражается через разность значений безусловной и условной энтропий. Конкретизация второго определения позволяет ввести меру информации открытых систем в зависимости от значений управляющих параметров. Выделен класс систем, для которых возможно равновесное состояние и имеет место закон сохранения информации и энтропии. Для равновесного состояния таких систем информация равна нулю, а энтропия максимальна. В процессах самоорганизации по мере удаления от равновесного состояния информация возрастает. Выделен и другой класс систем, для которых равновесное состояние невозможно. Для них вводится понятие «норма хаотичности» и рассматриваются два рода процессов самоорганизации. Дается соответствующее определение информации. Общие определения информации используются для классических и квантовых физических систем, а также при анализе результатов медико-биологического исследования.
PACS: 03.65.Bz, 03.67.−a, 05.65.+c, 89.70.+c (все) DOI:10.3367/UFNr.0169.199904e.0443 URL: https://ufn.ru/ru/articles/1999/4/e/ Цитата: Климонтович Ю Л "Энтропия и информация открытых систем" УФН169 443–452 (1999)