Глава 1. Види ентропії
Глава 2. Приклади ентропії
У словнику іноземних слів зустрічається наступне визначення ентропії: ентропія [давньогрецьке en в, всередину + trope поворот, перетворення] - 1) у фізиці - одна з величин, що характеризують тепловий стан тіла або системи тіл; міра внутрішньої невпорядкованості системи; при всіх процесах, що відбуваються в замкнутій системі, ентропія або зростає (необоротні процеси) або залишається постійною (оборотні процеси); 2) в теорії інформації - міра невизначеності ситуації (випадкової величини) з кінцевим або парним числом результатів, наприклад, досвід, до проведення якого результат в точності невідомий.
Поняття ентропії вперше було введено в науку Клаузиусом в 1865 р як логічний розвиток термодинаміки Карно.
Але я характеризую це поняття як міра хаосу. На мою думку, це саме оптимальна тема на даний момент тому, що вона повністю пов'язана з життям. Ентропія знаходиться у всьому. У природі, в людині, в різних науках. Навіть зародження людини в утробі матері починається з хаосу. Ентропію також можна пов'язати з утворенням планети, так як до появи Бога на Землі все природні явища і все, що було на планеті, перебувало у високому ступені ентропії. Але по закінченню семи днів, планета набула упорядкований вигляд, тобто все встало на свої місця.
Грунтуючись на моїх висновках, я б хотіла докладніше розібрати це явище і так сказати знизити ентропії розуміння цього явища.
Глава 1. Види ентропії
Для початку, я б хотіла розглянути основні види ентропії, для того щоб, на основі цих видів розібрати приклади ентропії, які безпосередньо пов'язані з нашої минулої, теперішньої та майбутньої життям.
Сьогодні в літературі зустрічається, щонайменше, чотири форми ентропії:
По-перше, ентропія як міра невизначеності стану будь-якої цілком впорядкованої фізичної системи, або поведінки будь-якої системи, включаючи, живі і неживі об'єкти і їх функції. Саме ця форма ентропії, пов'язана з невизначеністю стану системи, знаходить останнім часом найбільшого поширення при дослідженні, як живих, так і неживих об'єктів і процесів.
По-друге, термодинамічна ентропія мікрочастинок, або молекулярного (мікроскопічного) безлічі.
По-третє, інформаційна ентропія, або невизначеність інформації, тобто відомостей про деяку інформаційну систему. Відомо, що збіг по виду формул для ентропії та інформації послужило підставою для твердження, що ентропія є недостатня інформація про стан системи. Було запропоновано використовувати термін негентропії як тотожної пов'язаної інформації про стан системи. Негентропії не є негативною ентропією, або антиентропія, як іноді помилково вважають деякі вчені.
Різниця масштабів ентропії та інформації пов'язана з їх принциповою відмінністю, а саме: ентропія - це міра безлічі тих станів системи, про перебування в яких система повинна забути, а інформація - це міра безлічі тих станів, про перебування в яких система повинна пам'ятати.
По-четверте, ентропія, або невизначеність поведінки, будь-який не цілком впорядкованої системи аж до макроскопічних множин.
Глава 2. Приклади ентропії
В першу чергу, я б хотіла розглянути найпростіший приклад, який стосується всіх нас. Це створення світу Богом. Як говориться в біблії, Світ був як безодня, безводна, порожня і темна. Все в цьому світі знаходилося в хаосі, тобто в збільшеною ентропії. У перший день своїх діянь, Бог, як це нам вже відомо, відділив світло від темряви. І став день, і стала ніч, і з'явилися ранок і вечір. Міра хаосу стала зменшуватися. На другий, розділив безодню на небо і землю. Все поступово почало приходити на свої місця. На третій день Бог відділив суходіл від вод. І назвав він сушу землею, а зібрання вод - морями, океанами, озерами та річками. І сказав Бог, щоб з землі виростали трава, дерева родючі, в яких насіння його на землі. І стало так. На четвертий Бог відділив денне світило від нічного. І з'явилися на небі місяць і сонце. На п'ятий день з'явилися риби і птиці. На шостий тварини, земні гади і людина. По закінченню семи днів ентропія перейшла в 0. ентропія з найбільшого стану перейшла в найменше.
Іншим очевидним прикладом ентропії може являти інформації та логічне мислення, яку поглинає людина. Логічне судження людини не може здійснюватися без підведення негативною ентропії. Чим людина менше знає про який-небудь предмет, тим більше хаосу і плутанини в його голові, але в міру того як інформація наростає і її стає більше, тим більше людина починає розуміти і усвідомлювати. І цей приклад також призводить ентропію в нульовий стан.
І ще одним наочним прикладом можна розглянути харчування людини. У кожному куточку країни люди різняться між собою національністю, місцем проживання та, звичайно ж, харчуванням. Якщо подивитися середній рівень життя людей в горах і на забруднених вулицях США, де завжди стовпотворіння людей і людині нема чим дихати, як тільки газами, то можна побачити суттєві відмінності. Якщо в горах людина п'є чисту гірську воду, в США воду, в якій досить бактерій, які можуть з лишком заразити або навіть вбити людину, ну а в кращому випадку, несприятливо позначитися на здоров'ї людини. Також, якщо поставити поруч людини з гір і людини з США, то природно знайдуться очевидні відмінності в зовнішності цих людей. Людина з гір набагато молодше буде виглядати і красивіше.
Цей приклад, також був показу відомим вченим на щурах. Одні з яких, пили чисту джерельну воду, а інші пили алкоголь. І ті, які пили алкоголь, через деякий час з'явилися проблеми зі здоров'я. А ті, які пили чисту джерельну воду, були бадьорі, веселі, грайливі і вони ніколи не підходили до алкоголю.
Ще один приклад, пов'язаний з ентропією вже з фізики. Всім відомо, що в рідині частинки рухаються в хаотичному порядку, тобто точка ентропії на межі. У міру того, як рідке тіло починає замерзати, ентропія стає все менше і менше. Так як частинки починають рухатися повільніше, і коли рідина замерзає, ентропія дорівнює 0. Тому що між частинками утворюються нерозривні зв'язки.
З приводу ентропії приклади можна наводити і наводити, але я хочу обмежитися цими прикладами.
Фізична ентропія є мірою енергетичної упорядкованості об'єкта і являє собою функцію від числа їх можливих станів.
Будь-яке підвищення впорядкованості об'єктів веде до зниження їх сукупної ентропії, і навпаки.
Розуміння фізичного сенсу ентропії утруднено тим обставиною, що її значення не може бути виміряна ніяким приладом, але зате обчислюється. Твердження про існування ентропії зазвичай відносять до другого закону термодинаміки. Більш ніж 100-річний досвід використання поняття ентропії в термодинаміці підтверджує правильність уявлень про нього як про фізичну величину, зміна якої (в рівноважних процесах) однозначно пов'язане з наявністю обміну енергією у формі теплоти.
Відомо, що абсолютне значення ентропії різних речовин, при різних температурах, можна визначити на основі третього закону термодинаміки. Цей закон встановлює також початок відліку ентропії і тим самим дозволяє обчислити абсолютне значення ентропії.
Таким чином, виявилося, що поняття ентропії є одним з фундаментальних властивостей будь-яких систем з імовірнісним поведінкою. У теорії інформації ентропія як міра невизначеності результату експерименту була введена американським вченим К. Шенноном в 1949 р
Поняття узагальненої ентропії представляє такі найбільш загальні властивості дійсності, як невпорядкованість і впорядкованість, невизначеність і визначеність, хаос і порядок.
Будь-яке явище двояко, і воно одночасно містить в собі деяку хаотичну, броунівський складову і впорядковану складову, як складову хаосу, так і порядку.
Список літератури
Словник іншомовних слів. М -1977.