Negentropia (negatywna entropia, ujemna entropia, ekstropia) – w teorii systemów i cybernetyce – miara stopnia organizacji. Stanowi różnicę pomiędzy maksymalną możliwą wartością entropii – odpowiadającą całkowitej dezorganizacji systemu, a jej aktualną wartością. Przy dezorganizacji systemu negentropia maleje, podczas gdy entropia wzrasta i – na odwrót – wzrostowi organizacji odpowiada zawsze wzrost negentropii[1][2].

Za pomocą pojęcia negentropii próbowano wyjaśnić funkcjonowanie organizmów żywych, miało ono opisywać zjawisko „eksportowania” entropii na zewnątrz przez żywe organizmy i złożone urządzenia techniczne (systemy), w celu utrzymania niskiego poziomu własnej, wewnętrznej entropii.

W 1943 roku, Erwin Schrödinger użył pojęcia ujemnej entropii w popularnonaukowej książce pt. What is life?[3] (Czym jest życie?[4]), aby zjawisko to zilustrować w bardziej „pozytywny” sposób: organizm (system) importuje z zewnątrz negatywną entropię i składuje ją wewnątrz. Jednakże w tym ujęciu, jest to tylko alternatywny sposób opisu zjawiska mogącego być opisanym przy użyciu znanych wielkości – entropii i energii swobodnej.

Léon Brillouin zastąpił termin: negatywna entropia pojedynczym słowem: negentropia[5][6].

W 1974, Albert Szent-Györgyi zaproponował zastąpienie terminu negentropia słowem syntropia. Słowo to wprowadził prawdopodobnie w latach 40. XX wieku włoski matematyk Luigi Fantappiè, przy próbach stworzenia zunifikowanej teorii dla jedności biologii i fizyki, bez większego jednak powodzenia. Buckminster Fuller również starał się popularyzować termin syntropii, niemniej negentropia jest nadal najczęściej używanym określeniem.

Obecnie termin ten jest stosowany głównie w teorii informacji i transhumanizmie (gdzie preferuje się synonim ekstropia)[7]. W ekstropianizmie ciągły wzrost ekstropii jest najwyższą wartością.

Negentropia w teorii informacji i statystyce

W teorii informacji i statystyce, negentropia jest miarą odległości rozkładu zmiennej, np. wartości cechy lub sygnału od rozkładu normalnego (Gaussa), jedną z miar koncentracji rozkładu[8][9][10]. Podstawą porównania jest rozkład normalny, ponieważ zmienna o zadanej średniej i wariancji charakteryzuje się największą entropią właśnie dla rozkładu normalnego. Negentropia jest zawsze nieujemna, niezmienna względem dowolnego liniowego przekształcenia współrzędnych i równa zeru tylko, gdy zmienna ma rozkład normalny.

Negentropia jest definiowana jako:

gdzie jest entropią różnicową rozkładu Gaussa o takiej samej średniej i wariancji jak rozkładu a jest entropią różnicową tego rozkładu. Entropia różnicowa zdefiniowana jest wzorem:

Negentropię stosuje się także w przetwarzaniu sygnałów, do analizy składowych niezależnych[11][12][13][14].

Czym jest negentropia Schrödingera

Opis, w publikacji Schrödingera, ujemnej entropii nazwanej później negentropią, spotkał się z wątpliwościami i silnym sprzeciwem wśród fizyków, dlatego w późniejszych wydaniach książki Schrödinger dołączył adnotację, wyjaśniając tę koncepcję następująco:

Powiedzmy na wstępie, że gdybym zwracał się tylko do nich (fizyków), dyskusja skierowana byłaby na problem energii swobodnej. To pojęcie jest częściej używane w tym kontekście. Niemniej ten bardzo naukowo-techniczny termin wydawał się językowo zbyt bliski z terminem energia by pozwolić przeciętnemu czytelnikowi na rozróżnienie tych dwóch rzeczy.

Już to wyjaśnienie Schrödingera wskazuje, że negentropia nie jest entropią wziętą ze znakiem minus, a raczej pojęciem bliskim energii swobodnej. Energia swobodna, to ta część energii pobranej w pokarmie lub zmagazynowanej w organizmie, którą organizm może przetworzyć na pracę nieobjętościową. Organizm funkcjonuje przy stałym ciśnieniu i praktycznie w stałej temperaturze, w takich warunkach energia swobodna jest równa entalpii swobodnej zwanej funkcją Gibbsa[15].

Negentropia w termodynamice

Obecnie pojęcie negentropii praktycznie nie jest używane w termodynamice, jak i w teoriach wyjaśniających funkcjonowanie organizmów żywych. Termodynamiczna interpretacja zjawisk zachodzących w organizmach żywych została całkowicie opracowana i wyjaśniona z pomocą występujących w termodynamice pojęć, głównie dzięki fundamentalnym pracom Larsa Onsagera z termodynamiki procesów nieodwracalnych i Ilyi Prigogine’a z teorii procesów nierównowagowych, a szczególnie teorii struktur dyssypatywnych.

Problem pozornego naruszenia drugiej zasady termodynamiki został wytłumaczony. Przykładowo, w opublikowanej w 1982 książce Principles of Biochemistry amerykański biochemik Albert Lehninger argumentuje, że wytwarzaniu porządku w komórkach towarzyszy wzrost nieporządku w otoczeniu, który kompensuje, a nawet przewyższa wzrost porządku w komórkach. Lehninger wyjaśnia: „Organizmy żywe utrzymują swój wewnętrzny porządek przez pobieranie z otoczenia energii swobodnej w formie pożywienia lub światła, a oddają do otoczenia równoważną ilość energii jako ciepło wraz z towarzyszącą mu entropią”[16].

Związek negentropii statystycznej z energią swobodną

Willarda Gibbsa 1873 wykres dostępnej energii (entalpii swobodnej), który ukazuje płaszczyznę prostopadłą do osi v (objętości) i przechodzącą przez punkt A, który przedstawia stan początkowy ciała. MN jest sieczną powierzchni energii rozproszonej. Qε i Qη są siecznymi płaszczyzn η = 0 i ε = 0, i dlatego są równoległe odpowiednio do osi ε (energii wewnętrznej) i η (entropii). AD i AE są energią wewnętrzną i entropią ciała w jego stanie początkowym, AB i AC odpowiednio jego dostępną energią (entalpią swobodną) i jego pojemnością dla entropii (ilość entropii, o którą entropia ciała może być zwiększona bez zmiany energii wewnętrznej ciała lub zwiększenia jego objętości).

Istnieje wielkość fizyczna, ściśle związana z energią (entalpią) swobodną, mająca wymiar entropii i izomorficzna do negentropii znanej ze statystyki i teorii informacji. W 1873 Willard Gibbs sporządził wykres ilustrujący pojęcie dostępnej energii, odpowiadające późniejszemu pojęciu entalpii swobodnej. Obok niej, na wykresie pojawia się wielkość nazwana przez Gibbsa pojemnością dla entropii, oznaczająca ilość entropii, o jaką może być zwiększona entropia ciała, bez zmiany energii wewnętrznej ciała, lub zwiększenia jego objętości[17]. Innymi słowy, jest to różnica między maksymalną, dla założonych warunków, możliwą entropią ciała, a jego entropią obecną. Odpowiada to dokładnie przyjętej w statystyce i teorii informacji definicji negentropii. Podobną wielkość wprowadził już w 1869 Massieu dla przemiany izotermicznej[18][19][20] (obie wielkości różnią się tylko znakiem), a następnie Planck dla przemiany izotermiczno-izobarycznej[21]. Obecnie potencjały Massieu-Plancka, znane też pod nazwą entropia swobodna, odgrywają ogromną rolę w tzw. entropijnym sformułowaniu mechaniki statystycznej[22], stosowanym m.in. w biologii molekularnej[23] i termodynamice procesów nierównowagowych[24].

gdzie:

– negentropia („pojemność dla entropii” Gibbsa),
– potencjał Massieu (entropia swobodna),
suma statystyczna,
stała Boltzmanna.

Negentropia równa się entropii swobodnej ze znakiem „minus”[25].

Związek z „produkcją entropii”

Produkcja entropii w procesie nieodwracalnym nie może być większa od negentropii stanu początkowego układu.

Negentropia w pseudonauce

Pojęcie negentropii jest powszechnie nadużywane przez pseudonaukowe publikacje i opracowania, w których jest przedstawiana jako zjawisko lub wielkość fizyczna, która jest kluczem do rozwiązania najprzeróżniejszych problemów[26][27][28].

Negentropia w kulturze

Pojęcie negentropii bywa stosowane w rozważaniach filozoficzno-religijnych: „negentropia przestrzeni Ducha”[29], a także w sztuce (NEGENTROPIA [MEN] – tytuł performance meeting we wrocławskiej galerii Entropia[30]).

Przypisy

  1. Mały słownik matematyczny, Adam B. Empacher [i in.], Warszawa, Wiedza Powszechna, 1967.
  2. Encyklopedia Internautica w INTERIA.PL hasło negentropia.
  3. Schrödinger Erwin What is Life – the Physical Aspect of the Living Cell, Cambridge University Press, 1944, ISBN 0-521-42708-8.
  4. Czym jest życie? wyd. Prószyński i S-ka, 1998.
  5. Brillouin, Leon: (1953) „Negentropy Principle of Information”, /J. of Applied Physics/, v. 24:9, s. 1152–1163.
  6. Léon Brillouin La science et la théorie de l’information, Masson, 1959.
  7. Na przykład: The Principles of Extropy: A Quarter Century Later.
  8. Aapo Hyvärinen, Survey on Independent Component Analysis, node32: Negentropy, Helsinki University of Technology Laboratory of Computer and Information Science.
  9. Aapo Hyvärinen and Erkki Oja, Independent Component Analysis: A Tutorial, node14: Negentropy, Helsinki University of Technology Laboratory of Computer and Information Science.
  10. Ruye Wang, Independent Component Analysis, node4: Measures of Non-Gaussianity.
  11. P. Comon, Independent Component Analysis – a new concept?, Signal Processing, 36:287-314, 1994.
  12. Didier G. Leibovici and Christian Beckmann, An introduction to Multiway Methods for Multi-Subject fMRI experiment. FMRIB Technical Report, Oxford Centre for Functional Magnetic Resonance Imaging of the Brain (FMRIB), Department of Clinical Neurology, University of Oxford, John Radcliffe Hospital, Headley Way, Headington, Oxford, UK.
  13. Tadeusz Wibig, Analiza danych ICA, w: T. Wibig – Analiza danych dla zaawansowanych, Katedra Fizyki Teoretycznej Uniwersytetu Łódzkiego Instytutu Problemów Jądrowych im A. Sołtana, Łódź – jesień 2007.
  14. Agnieszka Pasztyła, Analiza kursów akcji z wykorzystaniem metody ICA, StatSoft Polska Sp. z o.o.; Akademia Ekonomiczna w Krakowie, Katedra Statystyki.
  15. Mae-Wan Ho, What is (Schrödinger’s) Negentropy?, Bioelectrodynamics Laboratory, Open university Walton Hall, Milton Keynes.
  16. Albert L Lehninger, Principles of Biochemistry, 2nd Ed. David Lee Nelson, Michael M Cox, wyd. 2nd ed, New York, NY: Worth Publishers, 1993, ISBN 0-87901-711-2, OCLC 27294500.
  17. Willard Gibbs, A Method of Geometrical Representation of the Thermodynamic Properties of Substances by Means of Surfaces, «Transactions of the Connecticut Academy», 382-404 (1873).
  18. Massieu, M. F. 1869a. Sur les fonctions caract6ristiques des divers fluides. C. R. Acad. Sci. LXIX:858-862.
  19. Massieu, M.F. 1869b. Addition au precedent memoire sur les fonctions caract6ristiques. C. R. Acad. Sci. LXIX:1057-1061.
  20. Massieu, M. F. (1869), „Compt. Rend.” 69 (858): 1057.
  21. Planck, M. 1945. Treatise on Thermodynamics. Dover, New York.
  22. Antoni Planes, Eduard Vives Entropic Formulation of Statistical Mechanics Entropic variables and Massieu-Planck functions 2000-10-24 Universitat de Barcelona.
  23. John A. Scheilman, Temperature, Stability, and the Hydrophobic Interaction, Biophysical Journal Volume 73 December 1997 2960-2964, Institute of Molecular Biology, University of Oregon, Eugene, Oregon 97403 USA.
  24. Z. Hens and X. de Hemptinne, Non-equilibrium Thermodynamics approach to Transport Processes in Gas Mixtures, Department of Chemistry, Catholic University of Leuven, Celestijnenlaan 200 F, B-3001 Heverlee, Belgium.
  25. To explain the difficulty with negentropy as information we notice that what is here physically important is not –S, but the so-called entropy defect, i.e., D = k log n – S, which is always nonnegative (...), and may represent „information at our disposal” or „free entropy”, similarly as free energy F = U – TS (where U is internal energy and T is absolute temperature) which is also nonnegative. – Ingarden, Roman S.; Kossakowski, A.; Ohya, Masanori Information dynamics and open systems: classical and quantum approach, s. 17.
  26. Negentropia.
  27. Matti Pitkänen, Negentropy Maximization Principle and TGD Inspired Theory of Consciousness, Department of Physics, Theoretical Physics Division, University of Helsinki, Finland.
  28. Matti Pitkänen, TGD Inspired Theory of Consciousness.
  29. Mistrz Kaisen, Odyseja człowieka światła.
  30. NEGENTROPIA (MEN) performance meeting.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.