Синергетика виникла в 1960-х рр. як фізико-математична теорія так званих дисипативних систем, т. е. систем відкритих, взаємодіючих з навколишнім середовищем і зберігають своє існування завдяки постійному обміну з нею речовиною та енергією ( «диссипация» - від лат. dissipare - розсіювати). Початок їй поклали роботи І. Пригожина (Бельгія), а назва «синергетика» дав Г. Хакен (Німеччина). Значний внесок у її розробку внесли вітчизняні вчені С. Курдюмов, А. Самарський, В. Арнольд, М. Волькенштейн і ін.
Специфічною для суспільства формою взаємодії з середовищем є матеріальне виробництво. Воно служить основою різноманітних форм господарської діяльності людей, спрямованої на задоволення їх матеріальних потреб.
ь Самоорганізація. Система є самоорганізується, якщо її структура виникає, зберігається і ускладнюється в результаті відбуваються в ній внутрішніх процесів, а не нав'язується їй ззовні. Структура досить складних систем приймає ієрархічний характер. Її елементи об'єднуються в структурні утворення (підсистеми) різного рівня, серед яких можуть виділятися структурні утворення вищого рангу, що виконують функцію управління всією системою в цілому.
ь Зростання обсягу використовуваної інформації. Інформацію можна розуміти як міру порядку, т. Е. Як протилежність ентропії, яка є мірою безладдя, дезорганізації, хаотичності.
Для допитливих, але не знають або забули фізику. У термодинаміки порядок і безладдя визначаються за кількістю способів, якими можна розставити елементи системи за умови, що їх перестановки не змінять її загальних властивостей (її макроскопічного стану). Чим більше це число, тим більше в системі безладу. Логарифм цього числа і є ентропія (по Больцману): S = k ln W, де S - ентропія, W - число різних мікроскопічних (що відносяться до окремих елементів) станів, що породжують одне і те ж макроскопічне стан, до - константа ( постійна Больцмана).
Ентропію можна трактувати також і як невизначеність мікроскопічного стану системи, пов'язану з тим, що невідомо, який саме з усіх можливих способів розташування її елементів реалізований в дійсності. Число S характеризує цю невизначеність. Очевидно, що позбутися від неї ми змогли б, якби перебрали всі можливі способи і для кожного з них вирішили б питання, є чи не є він шуканим. Якщо вважати, що рішення цього питання для кожного з них дає нам один біт інформації, то все нам потрібно отримати рівно стільки бітів інформації, скільки всіх цих способів існує. Отже, інформація I в такому випадку чисельно дорівнює ентропії S. Це визначення інформації (його називають статистичними) дано К. Шенноном.
Але отримання інформації про те один спосіб розташування елементів, який реалізований в системі, означає ліквідацію невизначеності. Це дозволяє розглядати ентропію як міру нестачі інформації про мікроскопічних станах системи, а інформацію - як величину, протилежну їй за знаком (яка нищить ентропію). Параметр N, що дорівнює ентропії з протилежним знаком (N = -S), називається негативною ентропією або негентропії. Таким чином, I = -S = N. Цю взаємозв'язок інформації та ентропії висловлює негентропійної принцип інформації, сформульований Бріллеюном.
Якщо інформацію про мікроскопічних станах системи можна витягти тільки з спостережень над її макроскопічними станом, то остання повинна цю інформацію містити в собі (принаймні, потенційно). Термодинамічна система в стані максимуму ентропії - теплової рівноваги - не може зберігати інформацію (книга, що зберігає інформацію, - не в тепловій рівновазі: вона його досягне, коли друкарська фарба розпливеться і змішається з папером в однорідну масу). Згідно НЕГЕНТРОПІЙНОЇ принципом інформації, кількість інформації, що зберігається в системі інформації одно зменшення її ентропії, т. Е. Отже, чим вище ентропія системи, тим більше в пий безладу і невизначеності, і, навпаки, чим більше в системі інформації, тим більш визначеним і впорядкованим є її стан.
У. Р. Ешбі пов'язав поняття ентропії та інформації з поняттям різноманітності. Під різноманітністю розуміється безліч помітних частин системи. Здатність системи зберігати інформацію тим більше, чим більше її (системи) різноманітність. Зростання ентропії стирає відмінності між частинами системи і робить її більш однорідною, т. Е. Зменшує її різноманітність. А це обмежує інформаційну ємність системи. Різноманітність і складність системи взаємопов'язані. Складні системи характеризуються великою різноманітністю і тому здатні утримувати в собі великий обсяг інформації.
Г. Хакен запропонував розглядати зберігається в системі інформацію як безліч сигналів, якими обмінюються її елементи при взаємодії один з одним. У відкритій нерівноважної системі при достатньому припливі енергії ззовні елементи внаслідок такого обміну починають функціонувати узгоджено, когерентно. В результаті всередині системи виникає «інформаційне середовище», що характеризується параметром порядку. Цей параметр, з одного боку, породжує кооперативну поведінку частин системи, а з іншого - сам породжується їх спільною дією. Разом з тим він дає спостерігачеві відомості про макроскопически впорядкованої організації системи, оскільки він як продукт кооперації її частин підсумовує, «стискає» в собі інформацію про мікроскопічному стані системи, і в результаті вона з'являється на макрорівні. Хакен називає цей параметр інформатором, а інформацію, породжену кооперативним дією системи, - синергетичної інформацією. Зростання синергетичної інформації - умова самоорганізації системи.
Людське суспільство як надскладне система відрізняється колосальною кількістю зберігається в ній інформації. Однак специфіка його визначається не тільки цим. Головна особливість інформаційних процесів в суспільстві полягає в тому, що у людей, що володіють свідомістю і розумом, інформація набуває особливого «надприродне» якість - сенс. Виникнення сенсу є крок, який створює новий тип інформаційних процесів, якого в природі без людини немає і який з'являється тільки в суспільстві.