2 Термодинамічна ентропія
3 Ентропія Всесвіту
4 Ентропія і інформація
6 Ентропія і життя. біологічна впорядкованість
Список використаних джерел
1 Що таке ентропія
Серед всіх фізичних величин, які увійшли в науку в XIX в. ентропія займає особливе місце в силу своєї незвичайної долі. З самого початку ентропія утвердилася в теорії теплових машин. Однак дуже скоро рамки цієї теорії виявилися їй тісні, і вона проникла в інші області фізики, перш за все в Теорію випромінювання. Експансія ентропії цим не обмежилася. На відміну, наприклад, від інших термодинамічних величин ентропія досить швидко переступила межі фізики. Вона вторглася в суміжні області: космологію, біологію і, нарешті, в теорію інформації [6].
Поняття ентропії є багатозначним, неможливо дати йому єдине точне визначення. Найбільш загальним же є наступне:
Ентропія - міра невизначеності, міра хаосу.
Залежно від галузі знання, виділяють безліч видів ентропії: термодинамічна ентропія, інформаційна (ентропія Шеннона), культурна, ентропія Гіббса, ентропія Клаузіуса і багато інших.
Ентропія Больцмана є мірою безладдя, хаотичності, однорідності молекулярних систем.
Фізичний сенс ентропії з'ясовується при розгляді микросостояний речовини. Л.Больцман був першим, хто встановив зв'язок ентропії з ймовірністю стану. У формулюванні М. Планка твердження, що виражає цей зв'язок і зване принципом Больцмана, представляється простою формулою
Сам Больцман ніколи не писав цієї формули. Це зробив Планк. Йому ж належить введення постійної Больцмана kB. Термін «принцип Больцмана» був введений А. Ейнштейном. Термодинамічна ймовірність стану W або статистичний вага цього стану - це число способів (число микросостояний), за допомогою яких можна реалізувати дане макросостояніе [6]. Ентропія Клаузиуса пропорційна кількості зв'язаної енергії, що знаходиться в системі, яку не можна перетворити в роботу. Ентропія Шеннона кількісно характеризує достовірність переданого сигналу і використовується для розрахунку кількості інформації.
Розглянемо докладніше термодинамічну ентропію, ентропію Шеннона (інформаційну), зв'язок ентропії і біологічної впорядкованості.
2.Термодінаміческая ентропія
Ентропія як фізична величина вперше була введена в термодинаміку Р. Клаузиусом в 1865р. Він визначив зміна ентропії термодинамічної системи при оборотному процесі як відношення зміни загальної кількості тепла # 916; Q до величини абсолютної температури T:
.
Ентропія в термодинаміки - міра незворотного розсіювання енергії, є функцією стану термодинамічної системи [8].
Існування ентропії обумовлюється Другим початком термодинаміки. Так як будь-яка реальна система, яка зазнає цикл операцій і повертається в свій початковий стан, функціонує, тільки збільшуючи ентропію зовнішнього середовища, з якою дана система знаходиться в контакті. Це також означає, що ні на якому щаблі циклу сума змін ентропії системи і зовнішнього середовища не може бути негативною. Таким чином, другий закон термодинаміки допускає наступне формулювання:
Сума змін ентропії системи і зовнішнього середовища не може спадати.
Відповідно до цього, Всесвіт як єдине ціле не може повернутися в початковий стан.
Рудольфом Клаузиусом ж перше і друге початку термодинаміки були резюмовані так:
Енергія Всесвіту постійна.
Ентропія Всесвіту прагне до максимуму.
Через необоротних процесів ентропія ізольованої системи продовжує зростати до тих пір, поки не досягає максимально можливого значення. Досягнуте при цьому стан є стан рівноваги. [7, С. 130] З цього формулювання Другого початку слід, що в кінці еволюційного процесу Всесвіт повинна прийти в стан термодинамічної рівноваги (в стан теплової смерті), якому відповідає повна дезорганізація системи. Подання про теплової смерті Всесвіту, що випливає з формулювання другого початку, запропонованої Клаузиусом, - приклад неправомірної перенесення законів термодинаміки в область, де вона вже не працює. Закони термодинаміки застосовні, як відомо, тільки до термодинамічних систем, Всесвіт ж такою не є [6].
Як вже говорилося, закони термодинаміки можна застосувати до Всесвіту в цілому, так як вона не є термодинамічною системою, однак у Всесвіті можна виділити підсистеми, до яких може бути застосовано термодинамічний опис. Такими підсистемами є, наприклад, все компактні об'єкти (зірки, планети і ін.) Або реліктове випромінювання (теплове випромінювання з температурою 2,73 К). Реліктове випромінювання виникло в момент Великого вибуху, що призвів до утворення Всесвіту, і мало температуру близько 4000 К. В наш час, тобто через 10-20 млрд років після Великого вибуху, це первинне (реліктове) випромінювання, що прожила всі ці роки у Всесвіті , охололи до зазначеної температури. Розрахунки показують, що повна ентропія всіх спостережуваних компактних об'єктів мізерно мала в порівнянні з ентропією реліктового випромінювання. Причина цього, перш за все в тому, що число реліктових фотонів дуже велике: на кожен атом у Всесвіті доводиться приблизно 10 9 фотонів [6]. Ентропійно розгляд компонент Всесвіту дозволяє зробити ще один висновок. За сучасними оцінками, повна ентропія тій частині Всесвіту, яка доступна спостереженню, більш ніж в 10 30 разів менше, ніж ентропія речовини цієї ж частини Всесвіту, сконденсованої в чорну діру. Це показує, наскільки далека навколишнє нас частина Всесвіту від максимально неупорядкованого стану.
4 Ентропія і інформація
Вже згаданому Рудольф Клаузиусу також належить інше формулювання Другого закону термодинаміки: «Неможливий процес, єдиним результатом якого була б передача тепла від більш холодного тіла до більш гарячого».
Проведемо уявний експеримент, запропонований Джеймсом Максвеллом в 1867 році: припустимо, посудину з газом розділений непроникною перегородкою на дві частини: праву і ліву. У перегородці отвір з пристроєм (так званий демон Максвелла), яке дозволяє пролітати швидким (гарячим) молекулам газу тільки з лівої частини посудини в праву, а повільним (холодним) молекулам - тільки з правої частини посудини в ліву. Тоді, через великий проміжок часу, гарячі молекули виявляться в правому посудині, а холодні - в лівому [4].
I (x, y) = log (p (x / y) / p (x)),
де p (x) - ймовірність події x до настання події y (безумовна ймовірність); p (x / y) - ймовірність події x за умови настання події y (умовна ймовірність).
Під подіями x і y зазвичай розуміють стимул і реакцію, вхід і вихід, значення двох різних змінних, що характеризують стан системи, подія, повідомлення про нього. Величину I (x) називають власною інформацією, що міститься в подію x.
Розглянемо приклад: нам повідомили (y), що ферзь стоїть на шахівниці в позиції x = a4. Якщо до повідомлення ймовірності перебування ферзя у всіх позиціях були однакові і рівні p (x) = 1/64, то отримана інформація одно
I (x) = log (1 / (1/64)) = log (64) = 6 біт. [3, С.12]
В якості одиниці інформації I приймають кількість інформації в достовірному повідомленні про подію, завжди апріорна ймовірність якого дорівнює 1/2. Ця одиниця отримала назву "біт" (від англійського binary digits). [1]
Припустимо тепер, що отримане повідомлення було не цілком точним, наприклад, нам повідомили, що ферзь варто чи в позиції a3, то чи в позиції a4. Тоді умовна ймовірність його перебування в позиції x = a4 дорівнює вже не одиниці, а p (x / y) = ½. Отримана інформація буде дорівнює
I (x, y) = log ((1/2) / (1/64)) = 5 біт,
тобто зменшиться на 1 біт в порівнянні з попереднім випадком. Таким чином, взаємна інформація тим більше, чим вище точність повідомлення, і в межі наближається до власної інформації. Ентропію можна визначити як міру невизначеності або як міру різноманітності можливих станів системи. Якщо система може перебувати в одному з m рівно можливих станів, то ентропія H дорівнює
Наприклад, число різних можливих положень ферзя на порожній шахівниці одно m = 64. Отже, ентропія можливих станів дорівнює
H = log64 = 8 біт.
Якщо частина шахової дошки зайнята фігурами і недоступна для ферзя, то різноманітність його можливих станів та ентропія зменшуються.
Можна сказати, що ентропія є мірою свободи системи: чим більше у системи ступенів свобод, чим менше на неї накладено обмежень, тим більше, як правило, і ентропія системи [3, С.13-15]. При цьому нульовий ентропії відповідає повна інформація (ступінь незнання дорівнює нулю), а максимальної ентропії - повне незнання микросостояний (ступінь незнання максимальна) [6].
Явище зниження ентропії за рахунок отримання інформації відбивається принципом, сформульованим в 1953 р американським фізиком Леоном Брюлліен, що досліджували взаємоперетворенням видів енергії. Формулювання принципу наступна: «Інформація є негативний внесок в ентропію». Принцип носить назву НЕГЕНТРОПІЙНОЇ принципу інформації [5]. Поняття негентропії (те саме, що і негативна ентропія або сінропія) також може бути застосовано до живих систем, воно означає енропію, яку жива система експортує, щоб знизити рівень власної ентропії.
6. Ентропія і життя. біологічна впорядкованість
Питання про ставлення життя до другого закону термодинаміки - це питання про те, чи є життя острівцем опору другому початку. Дійсно, еволюція життя на Землі йде від простого до складного, а другий початок термодинаміки пророкує зворотний шлях еволюції - від складного до простого. Зазначене протиріччя пояснюється в рамках термодинаміки незворотних процесів. Живий організм як відкрита термодинамічна система споживає ентропії менше, ніж викидає її в навколишнє середовище. Величина ентропії в харчових продуктах менше, ніж в продуктах виділення. Іншими словами, живий організм існує за рахунок того, що має можливість викинути ентропію, що виробляється в ньому внаслідок незворотних процесів, в навколишнє середовище [6].
Так, яскравим прикладом є упорядкованість біологічної організації людського тіла. Зниження ентропії при виникненні такої біологічної організації з легкістю компенсується тривіальними фізичними і хімічними процесами, зокрема, наприклад, випаровуванням 170 г води [1].
Список використаних джерел