Добавить в корзину Удалить из корзины Купить |
Энтропия и количество информации ID работы - 724353 информационные технологии (реферат) количество страниц - 22 год сдачи - 2012 СОДЕРЖАНИЕ: Введение 3 1. Что такое энтропия? Энтропия биосистем 5 2. Типы математических моделей определения энтропии 10 3. Обобщенная энтропия (оэ) и негэнтропия (онг) 14 4. Информация и методы её измерения 17 Заключение 21 Список используемой литературы 22 ВВЕДЕНИЕ: Энтропия - это производное понятие от понятия "состояние объекта" или "фазовое пространство объекта". Она характеризует степень вариативности микросостояния объекта. Качественно, чем выше энтропия, тем в большем числе существенно различных микросостояний может находиться объект при данном макросостоянии. Исторически первым примером была энтропия нагретого физического тела, которая интерпретируется как неопределенность положений и импульсов молекул при данной температуре, играющей роль макросостояния. При вычислении энтропии требуется математическая модель объекта и его фазового пространства. Математическая модель содержит атрибуты двух типов. Атрибуты, инвариантные относительно всех допустимых преобразований модели, называются структурными. Они образуют структуру модели. К ним относятся уравнения, описывающие объект, пространство, из которого берут свои значения переменные, алгебра и топология на этом пространстве, система начальных, граничных условий и т.п. Другие атрибуты математической модели могут изменять свои значения при разных преобразованиях. Это вариативные параметры. К ним относятся значения переменных, координатные системы, в которых записаны уравнения, изменяемые связи между частями модели, границы областей, где ищутся решения и т. п. Полная совокупность всех вариативных параметров называется фазовым состоянием модели (его общей записью), а набор конкретных значений этих параметров - фазовой точкой или микросостоянием. Совокупность всех возможных фазовых точек называется фазовым пространством модели. Обычно, на таком пространстве можно ввести естественную метрику или топологию. Цель данной работы заключается в анализе энтропии как термодинамической функции, ее вероятностных характеристик, мер информации и сложности, что тесно связаны с понятием энтропии. Для этого необходимо решить следующие задачи: дать характеристику функции энтропии, связать исследуемое понятие с биосистемами, определить математическую модель определения энтропии и ее типы, рассмотреть обобщенную энтропию и негэнтропию, а также изучить методы измерения информации. СПИСОК ЛИТЕРТУРЫ: 1. Блюменфельд Л.А. Информация, термодинамика и конструкция биологических систем //Соросовский Образовательный Журнал. 1996. № 6. С. 88-92. 2. Волькенштейн М.В. Энтропия и информация. М.: Наука, 1986. 3. Коганов А.В. Векторные меры сложности, энтропии, информации. - М.: Прогресс, 2000. 4. Опритов В.А. Энтропия биосистем. - Н.Новгород: Нижегородский государственный университет им. Н.И. Лобачевского, 1999. 5. Хазэн А.М.. Происхождение и эволюция жизни и разума с точки зрения синтеза информации. //Биофизика. 1992. Т.37 (1)105-122. 6. Яглом А.М., Яглом И.М. Вероятность и информация. - М., 1957. Цена: 1000.00руб. |
ЗАДАТЬ ВОПРОС
Copyright © 2009, Diplomnaja.ru