Таблица 2.1
Условно обозначение
|
Структура
|
Характеристика на структурата
|
{X}, {T}, {N}
|
Натурална
|
Първоначална структура на информацията
|
M, D, L{X}, {T}, {N}
|
Нормализирана
|
Приведена към единица мащаб, диапазон и начало на отчитането
|
{X, T, N}
|
Комплексирана
|
Приведена към комплекс с обобщени координати X, T, N
|
{x, T, N}
|
Декомпонирана
|
Преобразувани са броя на измерванията,структурата и разположението
|
GA{X, T, N}
|
Генерализирана
|
Отстранен е излишъка, отделена е съществената част по условие А
|
X*, T*, N*
|
Дискретна (квантувана)
|
Значенията са в дискретна форма
|
qX, qT, qN
|
Безразмерна
|
Дискретните значения са преобразувани в безразмерна форма
|
|
Кодирана
|
Цифрова форма
|
Информацията може да се подлага на различни структурни преобразования, които са показани в таблица 2.1. Тази последователност може да бъде различна и се определя от конкретните условия и характера на решаваните задачи. Получаваните в резултат на преобразованията структури имат абстрактен характер и не отговарят строго на различните етапи на обработка в техническите средства на информационните системи.
От безкрайното множество физически процеси, протичащи в обектите за наблюдение или управление, се определят сигнали, формиращи първичната информация.
Първата фаза представлява структурно отстраняване на излишъка. В този случай се отчита дискретната структура на информационния източник, количеството на информационни елементи в него, връзките между тях и комбинациите от тях.
Във втората фаза се отстранява статистическия излишък чрез отчитане на вероятностните характеристики.
В третата фаза се отделя смисловото съдържание и така се осъществява смислово обогатяване на информацията.
След това се формират решения и действия, които се изразяват като единични командни сигнали.
2.7.Ентропия на обединени системи
Обединение се нарича група от две или повече независими множества на дискретни случайни променливи. С обединението са свързани понятията безусловна, условна, съвместна и взаимна ентропия. В таблица 2. са показани различните видове ентропия на обединени системи.
H (A) е безусловна ентропия на източника или средно количество информация, съдържащо се в един символ, генериран от източника.
H (B) е безусловна ентропия на приемника или средно количество информация, съдържащо се в един символ, приет от приемника.
H (A, B) е взаимна ентропия на система от предавател-приемник или средното количество информация съдържащо се в двойката (предаден и приет) символ.
Сподели с приятели: |