4 Вимірювання інформації
5 Використання інформації
6 Властивості інформації
7 Обробка інформації
8 Інформаційні ресурси та інформаційні технології
9 Інформатизація суспільства
Існує кілька поглядів на те, що прийнято вважати інформацією. Один погляд, і його, мабуть дотримується велика частина фахівців і неспеціалістів зводиться до того, що існує як би два сорти інформації:
1) Інформація технічна, яка передається по телеграфним лініях і відображається на екранах радіолокаторів. Кількість такої інформації може бути точно обчислено, і процеси, що відбуваються з такою інформацією, підкоряються фізичним законам.
2) Інформація семантична, тобто смислова. Це та сама інформація, яка міститься, наприклад, в літературному творі. Для такої інформації пропонуються різні кількісні оцінки і навіть будуються математичні теорії. Але загальна думка швидше зводиться до того, що оцінки тут досить умовні і приблизні і алгеброю гармонію все-таки не перевіриш.
Другий погляд полягає в тому, що інформація - це фізична величина, така ж, як, наприклад, енергія або швидкість. Певним чином і в певних умовах інформація так само описує як процеси, що відбуваються в природних фізичних системах, так і процеси в системах, штучно створених.
Як завжди, при наявності двох різко протилежних думок існує і третє, що примиряє. Прихильники третього підходу вважають, що інформація єдина, але ось кількісні оцінки повинні бути різними.
Окремо потрібно вимірювати кількість інформації, причому кількість інформації - сувора оцінка, щодо якої можна розвивати єдину строгу теорію. Крім кількості інформації, слід вимірювати ще й цінність. А ось з цінністю інформації відбувається те ж саме, що і з поняттям семантичної інформації. З одного боку, начебто її можна обчислити, а з іншого боку, всі ці обчислення справедливі лише в обмеженій кількості випадків. І взагалі, хто може точно обчислити, скажімо, цінність великого наукового відкриття?
Бурхливий розвиток науки і промисловості в XX столітті, нестримне зростання обсягів інформації, що надходить привели до того, що людина опинилася не в змозі сприймати і переробляти все йому призначене.
Виникла необхідність класифікувати надходження за темами, організовувати їх зберігання, доступ до них, зрозуміти закономірності руху інформації в різних виданнях і т.д. Дослідження, що дозволяють вирішити виниклі проблеми, стали називати інформатикою.
Термін «інформація» походить від латинського слова «informatio», що означає відомості, роз'яснення, виклад.
Інформація - це настільки загальне і глибоке поняття, що його не можна пояснити однією фразою. В це слово вкладається різний зміст в техніці, науці і в життєвих ситуаціях.
У побуті інформацією називають будь-які дані або відомості, які кого-небудь цікавлять. Наприклад, повідомлення про які-небудь події, про чию-небудь діяльності і т.п. «Інформувати» в цьому сенсі означає «повідомити щось, невідоме раніше».
Інформація - відомості про об'єкти і явища навколишнього середовища, їх параметри, властивості і стан, які сприймають інформаційні системи (живі організми, керуючі машини та ін.) В процесі життєдіяльності і роботи.
Інформація є характеристика не повідомлення, а співвідношення між повідомленням і його споживачем. Без наявності споживача, хоча б потенційного, говорити про інформацію безглуздо.
Стосовно до комп'ютерній обробці даних під інформацією розуміють деяку послідовність символічних позначень (букв, цифр, закодованих графічних образів і звуків і т.п.), яка несе смислове навантаження і подану в зрозумілому комп'ютера вигляді. Кожен новий символ в такій послідовності символів збільшує інформаційний обсяг повідомлення.
Інформація може існувати в найрізноманітніших формах:
- у вигляді текстів, малюнків, креслень, фотографій;
- у вигляді світлових або звукових сигналів;
- у вигляді радіохвиль;
- у вигляді електричних і нервових імпульсів;
- у вигляді магнітних записів;
- у вигляді жестів і міміки;
- у вигляді запахів і смакових відчуттів;
- у вигляді хромосом, за допомогою яких передаються у спадок ознаки і властивості організмів і т.д.
Предмети, процеси, явища матеріального чи нематеріального властивості, що розглядаються з точки зору їх інформаційних властивостей, називаються інформаційними об'єктами.
Будь-яка подія, всяке явище служить джерелом інформації. Інформація передається у вигляді повідомлень від деякого джерела інформації до її приймача за допомогою каналу зв'язку між ними. Джерело посилає передане повідомлення, яке кодується в переданий сигнал. Цей сигнал посилається по каналу зв'язку. В результаті в приймачі з'являється сигнал, що приймається, який декодується і стає прийнятою повідомленням. Передача інформації по каналах зв'язку часто супроводжується впливом перешкод, що викликають спотворення і втрату інформації.
Будь-яка подія або явище може бути виражене по-різному, в різний спосіб, різним алфавітом. Щоб інформацію більш точно і економно передати по каналах зв'язку, її треба відповідно закодувати.
Інформація не може існувати без матеріального носія, без передачі енергії. Закодоване повідомлення набуває вигляду сигналів-носіїв інформації. Вони-то і йдуть по каналу. Вийшовши на приймач, сигнали повинні знайти знову загальнозрозумілою вид.
З цією метою сигнали пробігають декодер, набуваючи форму, зручну для абонента. Система зв'язку спрацювала, мета досягнута. Коли говорять про каналах зв'язку, про системи зв'язку, найчастіше для прикладу беруть телеграф. Але канали зв'язку - поняття дуже широке, що включає безліч всяких систем, самих різних.
Щоб ясний був багатоликий характер поняття «канал зв'язку», досить навести кілька прикладів.
Ще один приклад - обчислювальна машина. І тут ті ж характерні риси. Окремі системи обчислювальної машини передають одна одній інформацію за допомогою сигналів. Адже обчислювальна машина - автоматичний пристрій для обробки інформації, як верстат - пристрій для обробки металу. Машина не створює з «нічого» інформацію, вона перетворює тільки те, що в неї введено.
Малюнок 1 - Загальна схема передачі інформації
Яка кількість інформації міститься, наприклад, в тексті роману «Війна і мир», в фресках Рафаеля або в генетичному коді людини? Відповіді на ці питання наука не дає і, цілком ймовірно, дасть не скоро.
А чи можливо об'єктивно виміряти кількість інформації? Найважливішим результатом теорії інформації є висновок:
У певних, досить широких умовах можна знехтувати якісними особливостями інформації, висловити її кількість числом, а також порівняти кількість інформації, що міститься в різних групах даних.
В даний час набули поширення підходи до визначення поняття «кількість інформації», засновані на тому, що інформацію, що міститься в повідомленні, можна нестрого трактувати в сенсі її новизни або, інакше, зменшення невизначеності наших знань про об'єкт.
Так, американський інженер Р. Хартлі (1928 р) процес отримання інформації розглядає як вибір одного повідомлення з кінцевого наперед заданої множини з N рівноймовірно повідомлень, а кількість інформації I, що міститься в обраному повідомленні, визначає як двійковий логарифм N. Формула Хартлі:
Припустимо, потрібно вгадати одне число з набору чисел від одиниці до ста. За формулою Хартлі можна обчислити, скільки інформації для цього потрібно:
I = log2100 «6,644.
Тобто повідомлення про вірно вгадав числі містить кількість інформації, приблизно рівне 6,644 одиниць інформації.
Наведемо інші приклади рівноймовірно повідомлень:
- при киданні монети: «випала решка», «випав орел»;
- на сторінці книги: «кількість букв парне», «кількість букв непарне».
Визначимо тепер, чи є рівноімовірними повідомлення «першою вийде з дверей будівлі жінка» і «першим вийде з дверей будівлі чоловік». Однозначно відповісти на це питання не можна. Все залежить від того, про який саме будівлі йде мова. Якщо це, наприклад, станція метро, то ймовірність вийти з дверей першим однакова для чоловіка і жінки, а якщо це військова казарма, то для чоловіка ця ймовірність значно вище, ніж для жінки.
Для завдань такого роду американський вчений Клод Шеннон запропонував в 1948 р іншу формулу визначення кількості інформації, що враховує можливу неоднакову вірогідність повідомлень в наборі. Формула Шеннона:
I = - (p1 log2 p1 + p2 log2 p2 +. + PN log2 pN),
де pi - ймовірність того, що саме i-е повідомлення виділено в наборі з N повідомлень.
Легко помітити, що якщо ймовірності p1. pN рівні, то кожна з них дорівнює 1 / N, і формула Шеннона перетворюється в формулу Хартлі.
Крім двох розглянутих підходів до визначення кількості інформації, існують і інші. Важливо пам'ятати, що будь-які теоретичні результати застосовні лише до певного кола випадків, окресленому початковими припущеннями.
В якості одиниці інформації домовилися прийняти один біт (англ. Bit - binary, digit - двійкова цифра).
Біт в теорії інформації - кількість інформації, необхідне для розрізнення двох рівноймовірно повідомлень.
А в обчислювальній техніці бітом називають найменшу "порцію" пам'яті, необхідну для зберігання одного з двох знаків «0» і «1», що використовуються для внутримашинного представлення даних і команд.
Біт - занадто дрібна одиниця виміру. На практиці частіше застосовується більш велика одиниця - байт, що дорівнює восьми бітам. Саме вісім бітів потрібно для того, щоб закодувати будь-який з 256 символів алфавіту клавіатури комп'ютера (256 = 28).
Широко використовуються також ще більші похідні одиниці інформації:
1 Кілобайтів (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гігабайт (Гбайт) = 1024 Мбайт = 230 байт.
Останнім часом у зв'язку зі збільшенням обсягів оброблюваної інформації входять у вжиток такі похідні одиниці, як:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
За одиницю інформації можна було б вибрати кількість інформації, необхідне для розрізнення, наприклад, десяти рівноймовірно повідомлень. Це буде не двійкова (біт), а десяткова (дит) одиниця інформації.
Інформацію можна: створювати, передавати, сприймати, використовувати, запам'ятовувати, приймати, копіювати, формалізувати, поширювати, перетворювати, комбінувати, обробляти, ділити на частини, спрощувати, збирати, зберігати, шукати, вимірювати, руйнувати, і ін.
Всі ці процеси, пов'язані з певними операціями над інформацією, називаються інформаційними процесами.
Інформація має такі властивості, що характеризують її якісні ознаки: достовірність, повнота, цінність, своєчасність, зрозумілість, доступність, стислість і ін. Інформація достовірна, якщо вона відображає дійсний стан справ. Недостовірна інформація може привести до неправильного розуміння або прийняття неправильних рішень.
Достовірна інформація з часом може стати недостовірної, так як вона має властивість застарівати, тобто перестає відображати дійсний стан справ.
Інформація повна, якщо її достатньо для розуміння і прийняття рішень. Як неповна, так і надлишкова інформація стримує прийняття рішень чи може спричинити помилки.
Точність інформації визначається ступенем її близькості до реального стану об'єкта, процесу, явища і т.п.
Цінність інформації залежить від того, наскільки вона важлива для вирішення завдання, а також від того, наскільки в подальшому вона знайде застосування в будь-яких видах діяльності людини.
Тільки своєчасно отримана інформація може принести очікувану користь. Однаково небажані як передчасна подача інформації (коли вона ще не може бути засвоєна), так і її затримка.
Якщо цінний і своєчасна інформація виражена незрозумілим чином, вона може стати марною.
Інформація стає зрозумілою, якщо вона виражена мовою, якою розмовляють ті, кому призначена ця інформація.
Інформація повинна подаватись в доступній (за рівнем сприйняття) формі. Тому одні й ті ж питання по різному викладаються в шкільних підручниках і наукових виданнях.
Інформацію по одному і тому ж питанню можна викласти коротко (стисло, без несуттєвих деталей) або докладно (детально, багатослівно). Стислість інформації необхідна в довідниках, енциклопедіях, підручниках, всіляких інструкціях.
Обробка інформації - отримання одних інформаційних об'єктів з інших інформаційних об'єктів шляхом виконання деяких алгоритмів.
Обробка є однією з основних операцій, виконуваних над інформацією, і головним засобом збільшення обсягу і різноманітності інформації.
Засоби обробки інформації - це всілякі пристрої і системи, створені людством, і в першу чергу, комп'ютер - універсальна машина для обробки інформації.
Комп'ютери обробляють інформацію шляхом виконання деяких алгоритмів.
Живі організми і рослини обробляють інформацію за допомогою своїх органів і систем.
Інформаційні ресурси - це ідеї людства і вказівки по їх реалізації, накопичені в формі, що дозволяє їх відтворення.
Це книги, статті, патенти, дисертації, науково-дослідницька та дослідно-конструкторська документація, технічні переклади, дані про передовий виробничий досвід і ін.
Інформаційні ресурси (на відміну від усіх інших видів ресурсів - трудових, енергетичних, мінеральних і т.д.) тим швидше ростуть, чим більше їх витрачають.
Інформаційна технологія - це сукупність методів і пристроїв, що використовуються людьми для обробки інформації.
Людство займалося обробкою інформації тисячі років. Перші інформаційні технології грунтувалися на використанні рахунків і писемності. Близько п'ятдесяти років тому почалося виключно швидкий розвиток цих технологій, що в першу чергу пов'язано з появою комп'ютерів.
В даний час термін «інформаційна технологія» вживається в зв'язку з використанням комп'ютерів для обробки інформації. Інформаційні технології охоплюють всю обчислювальну техніку і техніку зв'язку і, почасти, - побутову електроніку, телебачення і радіомовлення.
Народи розвинених країн усвідомлюють, що вдосконалення інформаційних технологій представляє найважливішу, хоча дорогу і важке завдання.
В даний час створення великомасштабних інформаційно-технологічних систем є економічно можливим, і це зумовлює появу національних дослідницьких і освітніх програм, покликаних стимулювати їх розробку.
Мета інформатизації - поліпшення якості життя людей за рахунок збільшення продуктивності і полегшення умов їх праці.
2. Дмитрієв В.К. Прикладна теорія інформації. М. 1 989.
3. Брюшінкін В.Н. Логіка, мислення, інформація. Л. ЛДУ, 1988.