2010 година

Целта на лекцията е да изучи основите на теорията на информацията

- изучават основните свойства на информацията, начини за организиране на сигнали и съобщения,

- проучете начини за измерване на количеството информация в ITT.

Въпроси, обхванати в лекцията:

1. Основи на теорията на информацията: същност, основни понятия и свойства

2. Методи за измерване на информацията в информационните системи. Вероятност и ентропия.

В съвременната естествена наука под информация се разбира като подреден, количествено оценен набор от материални и енергийни прояви на околния свят, способен да бъде обект на съхранение, трансформация и предаване. [един].

1. Информацията осигурява получаването на нова информация (знания) за околните обекти и явления в съответната област на физическото пространство и времето.

2. Информацията в чист вид е нематериална, но се реализира под формата на материални носители: знаци (символи) и (или) сигнали.

3. Информацията може да се съдържа не само под формата на материални носители като такива, но и във взаимното им (пространствено или времево) местоположение.

4. Знаците и сигналите носят информация само до получателя, който е в състояние да ги възприеме и разпознае.

Знаци (символи) са статични носители на информация, които са материални обекти, стабилно и недвусмислено разпознаваеми от получателя, а именно букви, цифри, символи и т.н.

Сигнали се наричат ​​динамични процеси, характеризиращи се с промяна във времето на физически полета с произволен характер, параметрите на които действат като определени функции на времето (детерминистични или стохастични).

Извиква се подредена последователност от символи или сигнали съобщение, в този случай всеки от символите или сигналите поотделно също е елементарно съобщение.

Правилото, при което символите на дадена азбука се сравняват със сигнали, използвани за предаване на съобщения, или със символи на друга азбука, се нарича правило за кодиране (код), и се нарича самият процес на такова сравнение кодиране. Извиква се обратното на произведеното кодиране декодиране.

При предаване на информация в цифрови технически и информационни системи терминът „трансфер на данни".

Понятието "информация" е по-широко и универсално понятие от понятието "данни", тъй като понятието "данни" обикновено се разбира като начин за представяне на информация в подходяща формализирана форма, което прави възможно улесняването на процеса на трансфер, обработка и съхраняване на съответната информация в AIST (автоматизирани информационни системи).

Методи за измерване на информация в информационни системи

По-голямата част от съвременните информационни и изчислителни системи са „цифрови“, тоест те използват операции под двоични дискретни сигнали.

Извиква се броячен набор от дискретни елементи, използвани за формиране на дискретни съобщения "Азбука", и се наричат ​​елементите на тази азбука "Писма".

Броят на "буквите" в "азбуката" се нарича "обем на "азбуката".

В дискретни модели на информационни системи се наричат ​​минималните неделими елементи на информацията кванти (например символите "ø" и "1" и съответните символи).

Важен аспект на теорията на информацията е концепцията за мярка (количество) информация. Структурната теория прави разлика между геометрични, комбинаторни и адитивни мерки на информацията [2].

а) Геометрична мярка за информация: в този случай количеството информация се изчислява по броя на квантите, на които дадено информационно пространство (площ) може да бъде разделено в рамките на дадените структурни измерения.

б) Комбинаторна мярка за информация: тази мярка за информация се използва в случаите, когато е необходимо да се оцени възможността за предаване на информация, като се използват различни комбинации от информационни елементи: комбинации; пермутации; разположение.

в) Адитивна мярка за информация (мярка на Хартли) - метод за оценка на количеството информация, наречен логаритмично, или адитивна мярка.

Р. Хартли предложи да се изчисли количеството информация от гледна точка на логаритъма на броя N възможни съобщения („думи“): J = aN = am n = nam.

В съответствие с най-разпространения в момента начин за представяне на данни, базирани на двоична (двоична) бройна система, получаваме, че количеството информация в една двоична (двоична) единица съответства на съобщение, състоящо се от един символ на двоичната азбука. Това устройство е наречено „1 бит“ (от английското „двоична цифра“)

Според предположенията, направени от Р. Хартли, всички разглеждани символи на азбуката са еднакво вероятни, следователно вероятностите за поява на която и да е от N възможни "думи" също са равни:

Следователно количеството информация в някое от N равновероятни съобщения е равно на логаритъма на вероятността за появата на това съобщение, взето с противоположния (отрицателен) знак.

Ако еднаквата вероятност от събития или съобщения не е удовлетворена, тогава формулата на Хартли не е приложима, тъй като тя губи значението си.

г) Статистическа мярка за информация (мярка на Шанън): при статистическия (вероятностен) подход информацията се разглежда като мярка за вероятността за възникване на съответното събитие (съобщение). От тази гледна точка, колкото по-вероятно е събитието, толкова по-малко информация имаме в съобщението за него и обратно.

"Ентропия", по аналогия със съответната термодинамична величина, характеризира мярката на несигурност (разстройство) в системата.

Въпроси за самопроверка

1. Дайте естествено - научно определение на информацията.

2. Избройте основните свойства на информацията.

3. Дайте понятията "знак" и "система от знаци".

4. Каква е ролята на сигналите при предаването на информация?

5. Какви начини за организиране на съобщенията познавате?

6. Дайте определение на „кодиране“ и „декодиране“.

7. На какво се основават методите за измерване на количеството информация в IVS?

8. Кога е приложима формулата на Хартли?

9. Как се разглежда информацията при статистически (вероятностен) подход?

10. Какво е значението на „ентропията“ в теорията на информацията?

Целта на лекцията е да изучи характеристиките на комуникационните канали, методите за физическо изпълнение на сигнали

- изучават основните свойства на ентропията, характеристиките на комуникационните канали

- за изучаване на методите за физическа реализация на сигнали, информационни признаци на сигнали

Въпроси, обхванати в лекцията:

1. Скорост на предаване на данни по комуникационни канали. Пропускателна способност на комуникационния канал.

2. Видове сигнали и тяхното физическо изпълнение. Информационни знаци за сигнали, използвани в системи за предаване на данни (DTS).