Сайт викладачів інформатики кмттмп - тема 2

Філософія. Атрибутивна концепція. Інформація-загальна властивість (атрибут) матерії.

Функціональна концепція. Інформація та інформаційні процеси притаманні тільки живій природі, є її функцією.

Антропоцентрическая концепція: Інформація та інформаційні процеси притаманні тільки людині.

Поняття інформації відноситься до числа фундаментальних. тобто є основоположним для науки і не пояснюється через інші поняття.

У цьому сенсі інформація постає в один ряд з такими фундаментальними науковими поняттями, як речовина, енергія, простір, час.

Змістовний (імовірнісний) підхід до вимірювання інформації

Існує два підходи до вимірювання інформації: змістовний (імовірнісний) і об'ємний (алфавітний).

Процес пізнання навколишнього світу призводить до накопичення інформації в формі знань (фактів, наукових теорій і т.д.). Отримання нової інформації призводить до розширення знання або до зменшення невизначеності знань. Якщо деяке повідомлення призводить до зменшення невизначеності нашого знання, то можна говорити, що таке повідомлення містить інформацію.

Нехай у нас є монета, яку ми кидаємо. З однаковою ймовірністю відбудеться одна з двох можливих подій - монета виявиться в одному з двох положень: «орел» або «решка». Можна говорити, що події рівноймовірно.

Перед кидком існує невизначеність наших знань (можливі дві події), і, як впаде монета, передбачити неможливо. Після кидка настає повна визначеність, так як ми бачимо, що монета в даний момент знаходиться в певному положенні (наприклад, «орел»). Це повідомлення призводить до зменшення невизначеності наших знань в два рази, так як до кидка ми мали два ймовірних події, а після кидка - тільки одне, тобто в два рази менше.

Чим більше невизначена первісна ситуація (можливо більшу кількість інформаційних повідомлень - наприклад, полишати не монету, а шестигранний кубик), тим більше ми отримаємо нову інформацію при отриманні інформаційного повідомлення (в більшу кількість разів зменшиться невизначеність знання).

Кількість інформації можна розглядати як міру зменшення невизначеності знання при отриманні інформаційних повідомлень.

Існує формула - головна формула інформатики. яка пов'язує між собою кількість можливих інформаційних повідомлень N і кількість інформації I, яке несе отримане повідомлення.

За одиницю кількості інформації приймається така кількість інформації, що міститься в інформаційному повідомленні, що зменшує невизначеність знання в два рази. Така одиниця названа біт.

Якщо повернутися до досвіду з киданням монети, то тут невизначеність якраз зменшується в два рази і, отже, отримане кількість інформації дорівнює 1 біту.

Біт - найменша одиниця вимірювання інформації.

За допомогою набору бітів можна уявити будь-який знак і будь-яке число. Знаки представляються восьмирозрядних комбінаціями бітів - байтами.

Байт - це 8 бітів, що розглядаються як єдине ціле, основна одиниця комп'ютерних даних.

Для вимірювання інформації використовуються більші одиниці: кілобайти, мегабайти, гігабайти, терабайти і т.д.

1 Кбайт = 210 байт = 1 024 байт

1 Мбайт = 220 байт = 210 Кбайт = 1 024 Кбайт = 1 048 576 байт

1 Гбайт = 230 байт = 1 024 Мбайт

1 Тбайт = 240 байт = 1 024 Гбайт

У рулетці загальна кількість лунок одно 32. Яка кількість інформації ми отримаємо при зупинці кульки в одній з лунок?

Повідомлення про те, що Петя живе в другому під'їзді, несе 3 біта інформації. Скільки під'їздів в будинку?

У шкільній бібліотеці 16 стелажів з книгами. На кожному стелажі 8 полиць. Бібліотекар повідомив Петі, що потрібна йому книга знаходиться на п'ятому стелажі на третій зверху полиці. Яка кількість інформації передав бібліотекар Петі?

При вгадуванні цілого числа в діапазоні від 1 до N було отримано 9 біт інформації. Чому дорівнює N?

Заповніть пропуски числами:

5 Кбайт = __5120__байт = _40960____ біт

_1,5_Кбайт = тисячі п'ятсот тридцять шість байт = _____ біт

__Кбайт = ____ байт = 512 біт

Об'ємний (алфавітний) підхід до вимірювання інформації

Інформація є предметом нашої діяльності: ми її зберігаємо, передаємо, приймаємо, обробляємо. Нам часто необхідно знати, чи достатньо місця на носії, щоб розмістити потрібну нам інформацію, скільки часу буде потрібно, щоб передати інформацію по каналу зв'язку і т.п. Величина, яка нас в цих ситуаціях цікавить, називається обсягом інформації. У такому випадку говорять про об'ємному підході до вимірювання інформації.

Для обміну інформацією з іншими людьми людина використовує природні мови (російська, англійська, китайська та ін.).

Поряд з природними мовами були розроблені формальні мови (системи числення, мова алгебри, мови програмування та ін.). Основна відмінність формальних мов від природних складається в наявності строгих правил граматики і синтаксису. Наприклад, системи числення можна розглядати як формальні мови, що мають алфавіт (цифри) і дозволяють не тільки називати і записувати об'єкти (числа), а й виконувати над ними арифметичні операції по строго певним правилам. Деякі мови використовують в якості знаків не букви і цифри, а інші символи, наприклад хімічні формули, ноти, зображення елементів електричних або логічних схем, дорожні знаки, крапки і тире (код азбуки Морзе та ін.).

Подання інформації може здійснюватися за допомогою мов, які є знаковими системами.

Кожна знакова система будується на основі певного алфавіту і правил виконання операцій над знаками.

При зберіганні і передачі інформації за допомогою технічних пристроїв інформація розглядається як послідовність символів - знаків (літер, цифр, кодів квітів точок зображення і т.д.)

Набір символів знакової системи (алфавіт) можна розглядати як різні можливі стани (події). Тоді, якщо вважати, що поява символів в повідомленні равновероятно, по формулі

де N - це кількість знаків в алфавіті знакової системи, можна розрахувати

I - кількість інформації, яке несе кожен символ.

Інформаційна ємність знаків залежить від їх кількості в алфавіті. Так, інформаційна ємність букви в російській алфавіті, якщо не використовувати букву "е", становить:

У латинському алфавіті 26 букв. Інформаційна ємність літери латинського алфавіту також 5 бітів. На підставі алфавітного підходу можна підрахувати кількість інформації в повідомленні I c, для цього необхідно помножити кількість інформації, яке несе один символ I. на кількість символів K в повідомленні:

Наприклад. в слові «інформатика» 11 знаків (К = 11), кожен знак у російській алфавіті несе інформацію 5 бітів (I = 5), тоді кількість інформації в слові «інформатика» Iс = 5х11 = 55 (бітів).

Цікаво, що сама одиниця вимірювання кількості інформації біт (bit) отримала свою назву від англійського словосполучення BInary digiТ, тобто двоичная цифра.

Чим більша кількість знаків містить алфавіт знакової системи, тим більша кількість інформації несе один знак.

Потужність алфавіту дорівнює 256. Скільки Кбайт пам'яті буде потрібно для збереження 160 сторінок тексту, що містить в середньому 192 символу на кожній сторінці?

Інформаційне повідомлення об'ємом 1,5 Кбайта містить 3072 символу. Скільки символів містить алфавіт, за допомогою якого записано це повідомлення?

Скільки символів становить повідомлення, записане за допомогою 16-ти символьного алфавіту, якщо об'єм його склав 1/16 частину Кбайта?

Інформація в комп'ютері представлена ​​в двійковому коді. алфавіт якого складається з двох ціфр- 0 і 1. Цифра двійкової системи називається бітом (від англійських слів binary digit - двійкова цифра).

Кодування - це операція перетворення знаків або груп знаків однієї знакової системи в знаки або групи іншої знакової системи.

Двійкове кодування текстової інформації

В основі кодування текстової інформації лежить кодування символів, що вводяться з клавіатури. Основний принцип кодування символів - домовленість.

Код ASCII (American Standard Code for Information Interchange -американські стандартний код інформаційного обміну), прийнятий для персональних комп'ютерів. Алфавіт, який відображається в двійкові коди, включає знаки, які можна набрати на клавіатурі комп'ютера (в тому числі комбінацій різних клавіш). Таких знаків 256.

Алгоритм визначення кількості текстової інформації.

1. Визначити кількість символів.

2. Визначити скільки біт використовується для кодування 1 символу.

3. Кількість інформації = число символів * число розрядів в двійковому коді.

Підрахуйте кількість інформації в даному тексті (біт, байт)

Двійкове кодування графічної інформації

Зображення представляється у вигляді сукупності точок (пікселів). Точки, що належать зображенню, і точки, що належать фону, кодуються різними знаками. Чорно-біле зображення можна закодувати послідовністю:

0 - немає сигналу (чорний); 1 - є сигнал (білий)

Алгоритм визначення кількості графічної інформації.

1. Визначити кількість піксель в зображенні;

2. Визначити глибину кольору.

Кольорові зображення можуть мати різну глибину кольору:

 2 кольори 1 піксель - 1 біт

 256 кольорів 1 піксель - 1 байт = 8 біт

 65536 квітів 1 піксель - 2 байт = 16 біт

3. Кількість інформації = кількості точок (пікселів), що становлять кадр зображення * глибина кольору.

Виконайте кодування чорно-білого графічного зображення. Визначити кількість інформації (біт, байт).

Визначити обсяг графічного растрового зображення розміром 50 на 50 і глибина кольору 256 кольорів.

Двійкове кодування звукової інформації.

Алгоритм визначення кількості звукової інформації:

1. Глибина кодування - кількість різних рівнів сигналу:

 256 рівнів - 1 байт = 8 біт

 65536 рівнів - 2 байта = 16 біт

2. Частота дискретизації визначається в Гц.

3. Режими звучання:

4. час в секундах

5. Кількість звукової інформації = глибиною кодування (біт) * частотою дискретизації (Гц) * режим звучання * час (секунди)

Визначте інформаційний обсяг стереоаудіофайла тривалістю звучання 5 секунд при частоті 48 КГц і глибиною кодування 65536 рівнів.

Схожі статті