2010 година
Целта на лекцията е да изучи основите на теорията на информацията
- изучават основните свойства на информацията, начини за организиране на сигнали и съобщения,
- проучете начини за измерване на количеството информация в ITT.
Въпроси, обхванати в лекцията:
1. Основи на теорията на информацията: същност, основни понятия и свойства
2. Методи за измерване на информацията в информационните системи. Вероятност и ентропия.
В съвременната естествена наука под информация се разбира като подреден, количествено оценен набор от материални и енергийни прояви на околния свят, способен да бъде обект на съхранение, трансформация и предаване. [един].
1. Информацията осигурява получаването на нова информация (знания) за околните обекти и явления в съответната област на физическото пространство и времето.
2. Информацията в чист вид е нематериална, но се реализира под формата на материални носители: знаци (символи) и (или) сигнали.
3. Информацията може да се съдържа не само под формата на материални носители като такива, но и във взаимното им (пространствено или времево) местоположение.
4. Знаците и сигналите носят информация само до получателя, който е в състояние да ги възприеме и разпознае.
Знаци (символи) са статични носители на информация, които са материални обекти, стабилно и недвусмислено разпознаваеми от получателя, а именно букви, цифри, символи и т.н.
Сигнали се наричат динамични процеси, характеризиращи се с промяна във времето на физически полета с произволен характер, параметрите на които действат като определени функции на времето (детерминистични или стохастични).
Извиква се подредена последователност от символи или сигнали съобщение, в този случай всеки от символите или сигналите поотделно също е елементарно съобщение.
Правилото, при което символите на дадена азбука се сравняват със сигнали, използвани за предаване на съобщения, или със символи на друга азбука, се нарича правило за кодиране (код), и се нарича самият процес на такова сравнение кодиране. Извиква се обратното на произведеното кодиране декодиране.
При предаване на информация в цифрови технически и информационни системи терминът „трансфер на данни".
Понятието "информация" е по-широко и универсално понятие от понятието "данни", тъй като понятието "данни" обикновено се разбира като начин за представяне на информация в подходяща формализирана форма, което прави възможно улесняването на процеса на трансфер, обработка и съхраняване на съответната информация в AIST (автоматизирани информационни системи).
Методи за измерване на информация в информационни системи
По-голямата част от съвременните информационни и изчислителни системи са „цифрови“, тоест те използват операции под двоични дискретни сигнали.
Извиква се броячен набор от дискретни елементи, използвани за формиране на дискретни съобщения "Азбука", и се наричат елементите на тази азбука "Писма".
Броят на "буквите" в "азбуката" се нарича "обем на "азбуката".
В дискретни модели на информационни системи се наричат минималните неделими елементи на информацията кванти (например символите "ø" и "1" и съответните символи).
Важен аспект на теорията на информацията е концепцията за мярка (количество) информация. Структурната теория прави разлика между геометрични, комбинаторни и адитивни мерки на информацията [2].
а) Геометрична мярка за информация: в този случай количеството информация се изчислява по броя на квантите, на които дадено информационно пространство (площ) може да бъде разделено в рамките на дадените структурни измерения.
б) Комбинаторна мярка за информация: тази мярка за информация се използва в случаите, когато е необходимо да се оцени възможността за предаване на информация, като се използват различни комбинации от информационни елементи: комбинации; пермутации; разположение.
в) Адитивна мярка за информация (мярка на Хартли) - метод за оценка на количеството информация, наречен логаритмично, или адитивна мярка.
Р. Хартли предложи да се изчисли количеството информация от гледна точка на логаритъма на броя N възможни съобщения („думи“): J = aN = am n = nam.
В съответствие с най-разпространения в момента начин за представяне на данни, базирани на двоична (двоична) бройна система, получаваме, че количеството информация в една двоична (двоична) единица съответства на съобщение, състоящо се от един символ на двоичната азбука. Това устройство е наречено „1 бит“ (от английското „двоична цифра“)
Според предположенията, направени от Р. Хартли, всички разглеждани символи на азбуката са еднакво вероятни, следователно вероятностите за поява на която и да е от N възможни "думи" също са равни:
Следователно количеството информация в някое от N равновероятни съобщения е равно на логаритъма на вероятността за появата на това съобщение, взето с противоположния (отрицателен) знак.
Ако еднаквата вероятност от събития или съобщения не е удовлетворена, тогава формулата на Хартли не е приложима, тъй като тя губи значението си.
г) Статистическа мярка за информация (мярка на Шанън): при статистическия (вероятностен) подход информацията се разглежда като мярка за вероятността за възникване на съответното събитие (съобщение). От тази гледна точка, колкото по-вероятно е събитието, толкова по-малко информация имаме в съобщението за него и обратно.
"Ентропия", по аналогия със съответната термодинамична величина, характеризира мярката на несигурност (разстройство) в системата.
Въпроси за самопроверка
1. Дайте естествено - научно определение на информацията.
2. Избройте основните свойства на информацията.
3. Дайте понятията "знак" и "система от знаци".
4. Каква е ролята на сигналите при предаването на информация?
5. Какви начини за организиране на съобщенията познавате?
6. Дайте определение на „кодиране“ и „декодиране“.
7. На какво се основават методите за измерване на количеството информация в IVS?
8. Кога е приложима формулата на Хартли?
9. Как се разглежда информацията при статистически (вероятностен) подход?
10. Какво е значението на „ентропията“ в теорията на информацията?
Целта на лекцията е да изучи характеристиките на комуникационните канали, методите за физическо изпълнение на сигнали
- изучават основните свойства на ентропията, характеристиките на комуникационните канали
- за изучаване на методите за физическа реализация на сигнали, информационни признаци на сигнали
Въпроси, обхванати в лекцията:
1. Скорост на предаване на данни по комуникационни канали. Пропускателна способност на комуникационния канал.
2. Видове сигнали и тяхното физическо изпълнение. Информационни знаци за сигнали, използвани в системи за предаване на данни (DTS).
- Гадаене за 2010 гадаене на восък - ВЕЩЕРИ НОВИНИ
- Активиране на скрити VAG функции (Част 1 - Volkswagen Polo Sedan (2010 - до момента))
- Архив Aquatropica, консултации, въпроси и отговори за 2010 г.
- Nuxe - отзиви на клиенти за козметика Nuxe
- Брага от круши за лунна рецепта у дома