Ентропія, антиентропія, негентропії, ентропійних моделі систем і проблеми управління

Ентропія є фундаментальним властивістю будь-яких систем з неоднозначним, або імовірнісним, поведінкою.

Відомо, що будь-які дискретні безлічі, будь-які об'єкти і явища (системи) живої та неживої природи без винятку містять риси порядку і безладу (хаосу), визначеності і невизначеності, організованості і дезорганизованности, а отже, і ентропії Величина ентропії як кількісної міри невизначеності, непередбачуваності , безладу, хаосу, дезорганизованности імовірнісних систем є загальною. Тому досліднику і конструктору неминуче доводиться рахуватися з наявністю ентропії у вигляді невпорядкованих, що дезорганізують, хаотичних, шумових факторів в поведінці імовірнісних систем, в елементах і в їх взаємодії. Вчені на початку XX ст. показали, що ми живемо в світі не тільки молекулярної невпорядкованості, а й у світі макронеустойчівості і тому прийняли узагальнену ентропію (ОЕ) в якості універсального параметра - кількісної міри невизначеності, або неу упорядкованістю.

Поняття узагальнена ентропія (ОЕ) має на увазі, що системи, крім мікро- і макронеупорядоченності, так само є складними і можуть бути як фізичними, так і інтелектуальними.

Поняття ентропії вперше було введено в науку Клаузиусом в 1865 р як логічний розвиток термодинаміки Карно. З тих пір нас постійно лякають "теплової смертю" Всесвіту, оскільки в закритих системах, або в необоротних взаємодіях, ентропія завжди зростає. Відомо, що саме ентропія забезпечує оптимальну складність Всесвіту і в кінцевому підсумку повернення до цієї оптимальної складності після будь-якого відхилення як в сторону безладу, або хаосу, так і більшого порядку.

Розуміння фізичного сенсу ентропії утруднено тим обставиною, що її значення не може бути виміряна ніяким приладом, але зате обчислюється Твердження про існування ентропії зазвичай відносять до другого закону термодинаміки. Більш ніж 100-річний досвід використання поняття ентропії в термодинаміці підтверджує правильність уявлень про нього як про фізичну величину, зміна якої (в рівноважних процесах) однозначно пов'язане з наявністю обміну енергією у формі теплоти.

Відомо, що абсолютне значення ентропії різних речовин при різних температурах можна визначити на основі третього закону термодинаміки. Цей закон встановлює також початок відліку ентропії і тим самим дозволяє обчислити абсолютне значення ентропії.

Таким чином, виявилося, що поняття ентропії є одним з фундаментальних властивостей будь-яких систем з імовірнісним поведінкою. У теорії інформації ентропія як міра невизначеності результату експерименту була введена американським вченим К. Шенноном в 1949 р

Зрозумівши ентропію і озброївшись нею як новим інструментом пізнання, можна побачити в новому ракурсі і переосмислити багато явищ навколишнього нас світу.

Ентропійно рівновагу між порядком і безладом в системі визначає світові процеси в космосі і умови життя на Землі. Тому іноді жартома кажуть, що ентропія як фізична величина, яка не вимірюється, а обчислюється, є генеральним конструктором і директором, а енергія є тільки головним бухгалтером, що стежить за тим, щоб сходилися кредит з дебетом.

Схожі статті