Композиционные свойства систем определяются способом объединения элементов в подсистемы. Будем различать подсистемы: эффекторные (способные преобразовывать воздействие и воздействовать веществом или энергией на другие подсистемы и системы, в том числе на среду), рецепторные (способные преобразовывать внешнее воздействие в информационные сигналы, передавать и переносит информацию) и рефлексивные, способные воспроизводить внутри себя процессы на информационном уровне, генерировать информацию. Композиция систем, не содержащих (до элементного уровня) подсистем с выраженными свойствами, называется слабой. Композиция систем, содержащих элементы с выраженными функциями, называется соответственно с эффекторными, рецепторными или рефлексивными подсистемами; возможны комбинации. Композицию систем, включающих подсистемы всех трех видов, будем называть полной Элементы системы (т.е. подсистемы, в глубь которых морфологический анализ не распространяется) могут иметь эффекторные, рецепторные или рефлексивные свойства, а также их комбинации.
Определение. Морфологическое описание есть четверка:
SM={S, V, d, K},где
S={Si}i – множество элементов и их свойств (под элементом в данном случае понимается подсистема, вглубь которой морфологическое описание не проникает);V ={Vj}j – множество связей;d - структура; К – композиция.
Все множества считаем конечными.
Будем различать в S:
Состав: гомогенный, гетерогенный, смешанный (большое количество гомогенных элементов при некотором количестве гетерогенных); неопределенный.
Свойства элементов: информационные, энергетические, информационно-энергетические, вещественно-энергетические, неопределенные (нейтральные).
Будем различать во множестве V:
Назначение связей: информационные, вещественные, энергетические.
Характер связей: прямые, обратные, нейтральные.
Будем различать в d:
Устойчивость структуры: детерминированная, вероятностная, хаотическая.
Построения: иерархические, многосвязные, смешанные, преобразующиеся.
Детерминированные структуры либо постоянны, либо изменяются во времени по детерминированным законам. Вероятностные структуры изменяются во времени по вероятностным законам. Хаотические структуры характерны отсутствием ограничений, элементы в них вступают в связь в соответствии с индивидуальными свойствами. Классификация производится по доминирующему признаку.
Будем различать во множестве К:
Композиции: слабые, с эффекторными подсистемами, с рецепторными подсистемами, с рефлексивными подсистемами, полные, неопределенные.
Морфологическое описание, как и функциональное, строится по иерархическому (многоуровневому) принципу путем последовательной декомпозиции подсистем. Уровни декомпозиции системы, уровни иерархии функционального и морфологического описания должны совпадать. Морфологическое описание можно выполнить последовательным расчленением системы. Это удобно в том случае, если связи между подсистемами одного уровня иерархии не слишком сложны. Наиболее продуктивны (для практических задач) описания с единственным членением или с небольшим их числом. Каждый элемент структуры можно, в свою очередь, описать функционально и информационно. Морфологические свойства структуры характеризуются временем установления связи между элементами и пропускной способностью связи. Можно доказать, что множество элементов структуры образует нормальное метрическое пространство. Следовательно, в нем можно определить метрику (понятие расстояния). Для решения некоторых задач целесообразно введение метрики в структурном пространстве.
Вопросы и упражнения
1. Для чего предназначены информационные элементы? Приведите примеры.
2. Для чего предназначены энергетические элементы? Приведите примеры.
3. Какие преобразования считают обратимыми?
4. Какие типы связей вы знаете?
5. Какие подсистемы называют эффекторными, рецепторными и рефлексивными? Приведите примеры.
6. В чем состоят композиционные свойства систем?
7. Каковы достоинства и недостатки общей формулы морфологического описания?
8. В чем состоит иерархия морфологического описания?
9. Составьте морфологическое описание для системы “компьютер”.
Глава 5. Информационное описание системы
5.1. Понятие информации
Информационное описание должно давать представление об организации системы. Термин информация имеет несколько значений:
1. совокупность каких либо сведений, знаний о чем-либо;
2. сведения, являющиеся объектом хранения, передачи и переработки;
3. совокупность количественных данных, выражаемых при помощи цифр или кривых, графиков и используемых при сборе и обработке каких-либо сведений;
4. сведения, сигналы об окружающем мире, которые воспринимают организмы в процессе жизнедеятельности;
5. в биологии – совокупность химически закодированных сигналов, передающихся от одного живого организма другому (от родителей - потомкам) или от одних клеток, тканей, органов другим в процессе развития особи;
6. в математике, кибернетике – количественная мера устранения энтропии (неопределенности), мера организации системы;
7. в философии – свойство материальных объектов и процессов сохранять и порождать определенное состояние, которое в различных вещественно-энергетических формах может быть передано от одного объекта другому; степень, мера организованности какого-либо объекта (системы).
Определения 1-4 трактуют информацию как сведения, данные, сообщения, сигналы, подлежащие передаче, приему, обработке, хранению и отражающие реальную действительность или интеллектуальную деятельность. В этом смысле информация – отображение в некоторое пространство символов VI. В дальнейшем будем называть ее отображающей информацией, и обозначать Io. Эта величина измеряется двоичными единицами. Если число возможных равновероятных исходов составляло вначале p0, а после получения информации сократилось до p1, то
I0=log2(p0/p1).
Во всех определениях, кроме последнего, информация рассматривается как объединяющая категория, которую можно определить через более простые категории. В последнем определении информация – изначальная, неопределяемая категория, которую нужно изучать через ее свойства, то есть информация материальна (как и вещество и энергия), проявляется в тенденции (свойстве) материи к организации (как энергия к способности к взаимодействию), выражает способность организованной материи к предопределению своих состояний (связывающей пространственные свойства с временными).
То, что это действительно так, вытекает из следующих, наблюдаемых в повседневной практике, свойств S0 – систем. При неизменной морфологии их поведение и функционирование в значительной степени определяются информацией, доставляемой рецепторными подсистемами. Аналогично энергия определяется как общая мера различных процессов и видов взаимодействия.
Физически информация определяет предсказуемость свойств и поведения объекта во времени. Чем выше уровень организации (больше информации), тем менее подвержен объект действию среды.
Возможно, что формы организации взаимно преобразуются в строгих количественных соотношениях, выражаемых при помощи информации. Доказать это можно только экспериментально (как и для количественных форм движения, т.е. энергетических эквивалентов). Количество и ценность информации – взаимодополняющие категории. Можно говорить о количестве ценной информации применительно к заданной цели подобно тому, как мы говорим о количестве ценного вида энергии или вещества.
Формальное определение первичных понятий всегда сложно. Определяя энергию как способность производить работу, мы с самого начала допускаем ошибку: энергия – не способность, а нечто, обладающее способностью. Не смотря на это, мы пользуемся этим определением, понимая и признавая его неполноценность. Энтропия есть мера беспорядка, негэнтропия – мера порядка, организованности. Но определения организованности в физике нет, существует интуитивное восприятие этого понятия. Организованность есть первичная категория.
Организованность, упорядоченность системы – способность предопределять свою перспективу, свое будущее. Разумеется, перспектива системы зависит и от среды. Но ведь и способность системы совершать работу зависит от среды, что не влияет на определение энергии.
Чем беспорядоченнее система, тем больше зависит ее перспектива от случайных факторов (внутренних и внешних). Повышение упорядоченности означает увеличение зависимости между факторами, определяющими поведение (состояние) системы. Применительно к внешним случайным факторам это означает наличие в системе возможностей установления соответствия между свойствами среды и функциями системы. Установление соответствия требует отображения среды в системе.
Таким образом, меру организованности можно понимать как потенциальную меру предсказуемости будущего системы, количественную характеристику возможности предвидения состояния (поведения) системы. Информация об организации системы – это количественная характеристика возможности предвидения ее состояния (поведения) на соответствующем уровне детализации системы. Информация о среде - количественная характеристика возможности предвидения воздействия среды. Информация об организации системы составляет часть ее внутренней информации.
Теория информации занимается проблемами обработки и передачи информации с учетом избыточности, шумов, потерь и кодирования. Ценность информации рассматривается с позиций поставленной цели, эффективности решения задачи.
Для любой системы ценность имеет то, что определяет ее дальнейшую судьбу – существование, поведение, развитие. Этот критерий можно применить и к информации: если закодировать расположение элементов системы и отделить ту часть кода, которая определяет перспективу системы, то ее можно назвать “полезной информацией” и оценивать полезность степенью влияния на перспективу. Такой подход вытекает из единства энтропии и информации и не требует сторонней оценки и участия в ней надсистемы. Таким образом, информация выражает свойства организации. Особенно ценна та информация, которая образовавшись в результате случайного взаимодействия или привнесенная извне, способна к самосохранению и самопрограммированию, т.е. увеличению влияния на перспективу системы.