Выпуски

 / 

1999

 / 

Апрель

  

Методические заметки


Энтропия и информация открытых систем


Московский государственный университет им. М.В. Ломоносова, Физический факультет, Воробьевы горы, Москва, 119992, Российская Федерация

В теории связи используются два определения Шеннона понятия «информация». Одно из них совпадает с энтропией Больцмана и является фактически мерой неопределенности при статистическом описании. Второе выражается через разность значений безусловной и условной энтропий. Конкретизация второго определения позволяет ввести меру информации открытых систем в зависимости от значений управляющих параметров. Выделен класс систем, для которых возможно равновесное состояние и имеет место закон сохранения информации и энтропии. Для равновесного состояния таких систем информация равна нулю, а энтропия максимальна. В процессах самоорганизации по мере удаления от равновесного состояния информация возрастает. Выделен и другой класс систем, для которых равновесное состояние невозможно. Для них вводится понятие «норма хаотичности» и рассматриваются два рода процессов самоорганизации. Дается соответствующее определение информации. Общие определения информации используются для классических и квантовых физических систем, а также при анализе результатов медико-биологического исследования.

Текст: pdf
Войдите или зарегистрируйтесь чтобы получить доступ к полным текстам статей.
PACS: 03.65.Bz, 03.67.−a, 05.65.+c, 89.70.+c (все)
DOI: 10.3367/UFNr.0169.199904e.0443
URL: https://ufn.ru/ru/articles/1999/4/e/
Цитата: Климонтович Ю Л "Энтропия и информация открытых систем" УФН 169 443–452 (1999)
BibTexBibNote ® (generic)BibNote ® (RIS)MedlineRefWorks

English citation: Klimontovich Yu L “Entropy and information of open systemsPhys. Usp. 42 375–384 (1999); DOI: 10.1070/PU1999v042n04ABEH000568

© Успехи физических наук, 1918–2018
Электронная почта: ufn@ufn.ru Телефоны и адреса редакции О журнале Пользовательское соглашение