(4.1)
може да се означи честотата на настъпване на дадено събитие.
Когато броят на опитите расте и клони към безкрайност, като експериментите се провеждат в неизменна обстановка, се забелязва, че ᄉ клони към една устойчива граница ᄉ->P. Това е количественият израз на вероятността за настъпване на дадено събитие.
При хвърлянето на хомогенен зар с идеална кубична форма няма основание той да се обърне по-голям брой пъти с шестицата нагоре, отколкото с която и да е от останалите страни. Тогава
P1=M1/N=P3=M3/N=… P6=M6/N=P=1/6=1/n (4.2)
и казваме, че събитията М1 доМ6 са равновероятни.
Подобен е случаят с вероятностите за обръщане на монетата на герб или стотинка.
Достатъчно е да се наруши геометрията или хомогенността на зара, за да се наруши и горното равенство на вероятностите. Падането на определена страна ще бъде неравновероятностно събитие. Тогава
P1≠ P2≠ P3 ≠…≠P6. (4.3)
Сумата на вероятностите и за двата случая е P1+P2+…+P6=1.
Кога едно събитие ще се запомни за цял живот или ще привлече вниманието? В ежедневната практика се казва — това, което ни изненадва, което е неочаквано. Или с други думи — това събитие, вероятността за настъпването на което е по-малка. Затова и съобщението за него е от особено значение. Прието е да се казва, че то носи пове информация. Тази зависимост е била описана математически от Клод Шенон.По неговата известна формула количеството информация I, което се съдържа в съобщението за настъпването на събитието с предварителна (априорна) вероятност P1, е
I=log P2/P1, (4.4)
където P2 е вероятността за настъпване на събитието след получаването на съобщението. Нарича се апостериорна вероятност.
Поставянето на апостериорната вероятност в израза отразява реалното състояние на нещата. Ако каналът е идеален и P1=1, като се вземе под внимание, че log 1 = 0,
I=log P2-log P1=-log P1. (4.5)
В зависимост от основата на логаритъма се получават различни дименсии за количеството информация. Ако се работи с логаритъм при основата 2, измерването ще стане в двоични единици - bit.
За количеството информация се получава I≥0. То е равно на 0 при P1=1, т.е. при напълно известни събития, за които няма друг изход освен познатия, известния. На съвременния човек не му прави никакво впечатление съобщението, че Земята се върти. А някога за предаването на това съобщение се е заплащало с живота. . . За реален канал 0<Р2<1 и тогава количеството информация в приемния край ще бъде по-малко.
Писмеността, буквено-цифровите съобщения са типични дискретни съобщения. Такива са и телеграфните съобщения, информацията, обменяна между изчислителните машини. Във всички тези случаи информацията може да се кодира чрез определен брой- символи и разреди. Ако се опитаме да направим елемент с 10 устойчиви състояния, бихме предавали числото 1239 чрез 4 импулса в определена последователност и с амплитуда, съответствуваща на стойността на цифрата в разреда. В изчислителната техника и в системите за връзка се използува изключително двоичният код.
Ако всички дискретни състояния са равновероятни, N е общият брой на възможните състояния, a P1=1/N, то количеството информация, което носи съобщението при Р2=1, е
I=-log2P1=-log2 1/N=log2N, bit. (4.6)
При условие чe дискретното съобщение се кодира чрез код с равновероятни символи с m на брой състояния, трябва N≤rnn , където n е броят на разредите на кода. Тогава
I=n log2 m, bit. (4.7)
Това е изразът за количеството информация, дадено от Хартли.
Така например за предаване на всички букви, цифри и препинателни знаци, както и за подаване на служебни команди в ASCII. В него импулсите могат да приемат само две стойности -1 и 0. Тогава обшият брoй на комбинациите се определя от m=2 и n=8 и е N=28=256
Ако се приеме, че всички букви в българската азбука са равновероятни, може по израза “I=n log2 m, bit” да се пресметне какво количество информация се съдържа в дву, - три, - четири- и т. н. буквени думи. В този случай m=30, а n=2, 3, 4. Но това няма да отразява реалното състояние на нещата. В нашия, а и в който и да е друг език, не могат да съществуват думи от рода на ЬЬЬЬЬЬ, ВВВВВВ и други подобни. Истината е, че буквите се срещат с различна вероятност. За оценка на количеството информация, съдържаща се в съобщение, съставено от неравновероятни символи, е най-добре да се използува въведеното от Шенон понятие ентропия. Това е мярка за степента на неопределеност, която съществува в източник на информация. Нарича се още средно количество информация или средна големина на неопределеността у получателя до предаване на информацията от източника. В термодинамиката се използува същото понятие в аналогичен смисъл. Разликата е, че при хаотичното Брауново движение неопределеността се увеличава, докато в теорията на информацията всеки следващ приет символ намалява неопределеността.
Нека азбуката, с която може да се кодира съобщението, да съдържа m на брой символа, като априорната вероятност за появата на всеки от тях е P1(sj), където j=1,2, . . . , m. Тогава ентропията
H=-∑=P1(Sj)log2P1(Sj),bit (4.8)
От този израз може да се направи изводът, че колкото е по-голяма вероятността за някакво събитие, толкова е по-малка ентропията, т.е. неопределеността. Той е очевиден и е в съответствие с разсъжденията в началото па рездела. Най-голяма е ентропията при равновероятни събития и се бележи с Hmax, т.е. при P1=P2=…Pk, H=Hmax.
Ефективността от източника на кодирането се проявява само ако се отчетат тези основни положения. За символите, които носят голяма информация, понеже са най-малко вероятни, трябва да се отдели най-голяма част от кодираното съобщeние. Шенон разглежда постройката nа писменото съобщение като случаен процес. Тези закономерности са били почувствувани от Самуел Морз при създаването на телеграфната азбука, която носи неговотo име. Той преброява използуваnите букви в една каса в печатница. На най-вероятната буква определя най-малко време за предаване. Най-малко вероятната сe предава най-трудно и за най- дълго време. А най-често срещаната буква - Е на английски - се кодира с най-късата комбинация. Така се решава въпросът за предаване на съобщението за по-кратко време, т. е. за създаването на оптимални кодове.
4.2.Информационен излишък
Информационният излишък е важна количествена оценка, свързана със синтезирането на системи за обработка и пренасяне на информация, тъй като пречи за тяхното ефективно използуване. Това означава влагане на повече средства за тяхното изграждане и експлоатация при условие, че не са използуват пълноценно. Тогава възвръщаемостта на средствата се забавя и води до съответни неблагоприятни последици.
Информационният излишък се определя с израза
R=1- H/Hmax, (4.9)
където H е действителната ентропия;
Hmax - максималната
Вече видяхме как се определят Н и Hmax.
Излишъкът може да се използува за повишаване на достоверността при предаване на информация от една на друга система чрез защита от грешки. Това е характерно за шумоустойчивото кодиране, което позволява откриване и коригиране на грешно предадени символи. Обстойните пояснения в писмени текстове и устни беседи съдържат също така излишък, и ако той е избран сполучливо, ще осигури най-добра цена за достоверността. Типичен пример е повтаряното на съобщенията по гарите, на важни изречения и думи от телефонни разговори и пр.
4.3. Пропускателна способност на информационния канал.Обобщена схема на телекомуникационната система.
Пропускателна способност на информационния канал. Каналът за пренасяне на информацията от една в друга система обхваща източника, получателя и средата (съоръженията) между тях. За пример могат да се посочат телефонният канал, акустичният и други канали. Най-разпространени са многоканалните връзки. Важен показател на системите за пренасяне на информация е пропускателната способност. Тя се определя от максималната скорост на предаване на информацията. В повече от литературните източници се означава с буквата С.
За кратък период от време се появяват няколко фундаментални работи, отнасящи се до основните положения на теорията на информацията. Това са трудовете на Клод Шенон, Норберт Винер и акад. Колмогоров.
На първо място трябва да се постави статията на Клод Шенон „The Mathematical Theory of Communications", „Математическа теория на връзките", публикувана през 1948 г., с която 32-годишният изследовател става родоначалник на теория, дала пряко отражение върху развитието на науката и техниката до наши дни.
В какво се състои всеобхватността и широката приложимост на теорията,
предложена от Шенон? Универсалността на теорията на информацията идва от това, че тя поставя критерии за сравнение на различните методи, системи и канали за връзка, като изхожда от най-главния показател - шумоустойчивостта.
Нееднократно беше споменавано за шум и за борба с шумовете. В технически смисъл шум е всяко изкривяване или друго смущение (пропадане на сигнал, интерференция на два сигнала, наслагването на сигнали от два източника и т. н.), отличаващо се от полезния сигнал или съобщението, което се предава. Шумовете винаги съществуват във всички системи за връзка. Те са основният ограничаващ фактор в тези системи.
Сигналът и шумът са с еднаква физическа природа. Обаче в съвременните съобщителни системи, в изчислителната техника, автоматиката и др. борбата с шумовете не може да се води само по линията на повишаване на мощността. По-горе беше посочено, че съществуват смущения, които се дължат на нарушаване на физическата цялост на канала за връзка - например краткотрайно разпадане на връзката или на загубата на няколко сигнала. Въпреки всичко това не трябва да се допуска пропадане или загуба на информация. Шенон доказва, че може да се достигне определена шумоустойчивост чрез подходящо кодиране на източника и на канала за връзка. Той въвежда формулата, която изразява връзката между възможността за предаване на определено количество информация за единица време, наричана информационна пропускателна способност или само пропускателна способност и отношението сигнал/шум по канала за връзка. Тя е известна като закон на Шенон и има следния вид:
C=∆F log2(1+Pc/Pш), (4.10)
където ∆F е широчината на лентата на пропускане на канала (широчината на амплитудно-честотната му характеристика, в която амплитудните изкривявания са в границите на приетите норми); Рс е мощността на сигнала и Рш е мощността на шума. Ако честотата се измерва в Hz и логаритъмът е при основа 2, дименсията на пропускателната способност е двоични единици /s или bit/s.
Необходимо е да се отбележи и значението на отношението сигнал/шум. То трябва да бъде голямо, т.е. мощността на източника да превишава значително мощността на шумовете, но това най-често е трудно да се постигне. Както беше посочено в предишната глава изразяването на Pc/Pш става в логаритмичен мащаб с единиците децибели dB чрез зависимостта,
D = 10log Pc/Pш ,dB. (4.11)
Отношението сигнал/шум определихме като динамичен обхват и е важна характеристика за сигналите и каналите при пренасянето на информация. Изразяването на D в логаритмични единици чрез десетични логаритми не бива да се смесва с изразяването на количеството информация чрез логаритми при основа 2.
На фиг.4.1. е дадена обобщена схема на телекомуникационна система. В нея е отразен предложения от Клод Шенон .... за кодиране на източника и кодиране на канала за връзка.
Бе посочено, че е желателно да се работи с голям динамичен обхват, но това не винаги е възможно.В сателитните комуникации мощността на излъчване е ограничена от капацитета на слънчевите панели. Мощността на излъчване на сателитния телефон е ограничена от капацитета на батерията и санитарните норми за излъчваната мощност. Разстоянията между приемника и предавателя са стотици километри (а при сателитната телевизия 40000 км.) с наличието на шумове и смущения от най-различно естество.Затова решението е в изходящото кодиране на източника и на сигнала към канала за връзка. Типичен пример е преминаването от аналоговите към мобилни комуникационни системи,довело не само до намаляване на енергийните показатели,при многократно увеличение на отношение Рс/Рш, но и разширяване на броя и вида на източниците, които потребителя може да използва.
Фиг.4.1.
В системата на фиг.4.1 означенията са:
ИИ - източник на информация;
КИ – кодиране на източника;
ОС/ЦОС/ - обработка на сигналите / в съвременните системи,предимно Цифрова Обработка на Сигналите/;
КК – кодиране на канала;
ДКК – декодиране на канала;
ДКИ – декодиране на източника;
ПИ – Получател на информацията;
Това е еднопосочна система - от точка в точка. Ако ПИ са голям брой -хиляди и милиони, това е типична система на разпръскане – радио и телевизия – от точка към много точки.
При мобилните комуникации системата е двупосочна. Тогава трябва да се начертае още една система огледален образ на начертаната. В мястото, точката където е ПИ трябва да се постави ИИ и да се формира обратния канал.
Какво представлява кодирането на източника например в телевизията? Това е преобразуването на светлинния сигнал от камерата в електрически сигнал,носител на информация за изображението. Акустичният сигнал се преобразува от микрофона в електрически сигнал за звука. В резултат на обработката (цифрова в съвременните телевизионни системи) се формира цифровия сигнал , в който е премахнат излишъка с прилагането на някой от известните стандарти. По този начин е възможно кодиране на канала, което означава сигналът, носител на информацията,да се обработи с цел шумоустойчиво кодиране и след това да се използва съответната модулация по стандартите за цифрова телевизия. Съответните кодирания на източника и канала и цифровата обработка позволяват в честотната лента на един аалогов телевизионен канал да се вместят и предадат 8 цифрови телевизионни канала,т.е. пропускателната способност е повишена 8 пъти.
Шумоустойчивосто кодиране,както ще се види в края на курса,означава да се внесе излишък, който ще позволи да се открият и корогират грешки в кодовата комбинация. Затова цифровата телевизия е с много по-високо качество от аналоговата.1>
Сподели с приятели: |