Ce proces are loc la entropie constantă. Studiem termenii: entropie - ce este în cuvinte simple

Această postare este o traducere gratuită a răspunsului pe care Mark Eichenlaub l-a dat la întrebarea Ce este un mod intuitiv de a înțelege entropia pusă pe site-ul Quora

Entropie. Acesta este poate unul dintre conceptele cele mai dificil de înțeles pe care le poți întâlni într-un curs de fizică, cel puțin când vine vorba de fizica clasică. Puțini absolvenți de fizică pot explica ce este. Cu toate acestea, majoritatea problemelor legate de înțelegerea entropiei pot fi rezolvate prin înțelegerea unui singur lucru. Entropia este diferită calitativ de alte mărimi termodinamice: precum presiunea, volumul sau energia internă, deoarece este o proprietate nu a sistemului, ci a modului în care considerăm acest sistem. Din păcate, la cursurile de termodinamică este de obicei tratată în mod egal cu alte funcții termodinamice, ceea ce agravează neînțelegerea.

Deci, ce este entropia?

Pe scurt, atunci
Entropia este cantitatea de informații pe care nu le cunoașteți despre un sistem

De exemplu, dacă mă întrebi unde locuiesc și răspund: în Rusia, atunci entropia mea pentru tine va fi mare, la urma urmei, Rusia este o țară mare. Dacă vă spun codul meu poștal: 603081, atunci entropia mea va scădea pentru că veți primi mai multe informații.


Un cod poștal conține șase cifre, adică ți-am dat șase caractere de informații. Entropia cunoștințelor tale despre mine a scăzut cu aproximativ 6 caractere. (De fapt, nu chiar, pentru că unii indexuri corespund mai multor adrese, iar alții mai puține, dar vom ignora asta).


Sau luați în considerare un alt exemplu. Lasă-mă să am zece zaruri (cu șase fețe), iar aruncându-le, îți spun că suma lor este 30. Știind doar asta, nu poți spune ce numere specifice sunt pe fiecare dintre zaruri - îți lipsesc informații. În fizica statistică, aceste numere specifice de pe zaruri se numesc microstări, iar suma totală (30 în cazul nostru) se numește macrostare. Există 2.930.455 de microstări care corespund unei sume de 30. Deci entropia acestei macrostări este de aproximativ 6,5 caractere (jumătate apare datorită faptului că la numerotarea microstărilor în ordine în a șaptea cifră, nu toate numerele sunt disponibile pentru tine, dar numai 0, 1 și 2).

Dacă ți-aș spune că suma este 59? Există doar 10 microstări posibile pentru această macrostare, deci entropia sa este doar un simbol. După cum puteți vedea, diferite macrostări au entropii diferite.

Permiteți-mi să vă spun acum că suma primelor cinci zaruri este 13, iar suma celor cinci rămase este 17, deci totalul este din nou 30. Cu toate acestea, în acest caz aveți mai multe informații, deci entropia sistemului ar trebui să cad pentru tine. Și, într-adevăr, 13 pe cinci zaruri pot fi obținute în 420 de moduri diferite și 17 în 780, adică numărul total de microstări va fi de numai 420x780 = 327.600. Entropia unui astfel de sistem este cu aproximativ un simbol mai mică decât în primul exemplu.

Măsurăm entropia ca număr de simboluri necesare pentru a scrie numărul de microstări. Matematic, această mărime este definită ca un logaritm, deci notând entropia cu simbolul S și numărul de microstări cu simbolul Ω, putem scrie:

Aceasta nu este altceva decât formula Boltzmann (până la un factor k, care depinde de unitățile de măsură alese) pentru entropie. Dacă o macrostare corespunde unei microstare, entropia acesteia conform acestei formule este egală cu zero. Dacă aveți două sisteme, atunci entropia totală este egală cu suma entropiilor fiecăruia dintre acele sisteme, deoarece log(AB) = log A + log B.

Din descrierea de mai sus devine clar de ce nu ar trebui să ne gândim la entropie ca la o proprietate intrinsecă a sistemului. Sistemul are o anumită energie internă, impuls, sarcină, dar nu are o anumită entropie: entropia a zece zaruri depinde dacă cunoști doar suma totală a acestora, sau și sumele parțiale ale celor cinci zaruri.

Cu alte cuvinte, entropia este modul în care descriem un sistem. Și asta îl face foarte diferit de alte cantități cu care se obișnuiește să lucrezi în fizică.

Exemplu fizic: gaz sub piston

Sistemul clasic considerat în fizică este un gaz situat într-un vas sub un piston. Microstarea unui gaz este poziția și impulsul (viteza) fiecăreia dintre moleculele sale. Acest lucru este echivalent cu cunoașterea valorii fiecărui zar din exemplul discutat mai devreme. Macrostarea unui gaz este descrisă prin cantități precum presiunea, densitatea, volumul și compoziția chimică. Este ca suma numerelor aruncate pe zaruri.

Mărimile care descriu macrostarea pot fi legate între ele prin așa-numita „ecuație de stare”. Prezența acestei conexiuni este cea care ne permite, fără să cunoaștem microstările, să anticipăm ce se va întâmpla cu sistemul nostru dacă începem să-l încălzim sau să mișcăm pistonul. Pentru un gaz ideal, ecuația de stare are o formă simplă:

Deși probabil că sunteți mai familiarizat cu ecuația Clapeyron-Mendeleev pV = νRT - este aceeași ecuație, doar cu câteva constante adăugate pentru a vă încurca. Cu cât mai multe microstări corespund unei anumite macrostari, adică cu cât mai multe particule care fac parte din sistemul nostru, cu atât ecuația de stare îl descrie mai bine. Pentru un gaz, valorile caracteristice ale numărului de particule sunt egale cu numărul lui Avogadro, adică sunt aproximativ 10 23.

Valori precum presiunea, temperatura și densitatea se numesc mediate, deoarece sunt manifestarea medie a microstărilor în continuă schimbare corespunzătoare unei anumite macrostari (sau, mai degrabă, macrostări apropiate acesteia). Pentru a afla în ce microstare se află sistemul, avem nevoie de multe informații - trebuie să cunoaștem poziția și viteza fiecărei particule. Cantitatea acestei informații se numește entropie.

Cum se schimbă entropia cu o schimbare a stării macro? Este ușor de înțeles. De exemplu, dacă încălzim puțin un gaz, atunci viteza particulelor sale va crește, prin urmare, gradul de ignoranță a noastră cu privire la această viteză va crește, adică entropia va crește. Sau, dacă creștem volumul de gaz prin retragerea pistonului, ignoranța noastră cu privire la poziția particulelor va crește, iar entropia va crește și ea.

Solide și energie potențială

Dacă luăm în considerare, în loc de gaz, un corp solid, mai ales cu o structură ordonată, ca în cristale, de exemplu, o bucată de metal, atunci entropia lui va fi mică. De ce? Pentru că știind poziția unui atom într-o astfel de structură, știi poziția tuturor celorlalți (sunt aliniați în structura cristalină corectă), dar vitezele atomilor sunt mici, deoarece nu pot zbura departe de poziția lor și oscilează doar ușor în jurul poziției de echilibru.

Dacă o bucată de metal se află într-un câmp gravitațional (de exemplu, ridicată deasupra suprafeței Pământului), atunci energia potențială a fiecărui atom din metal este aproximativ egală cu energia potențială a celorlalți atomi și entropia asociată cu această energie este scăzută. Aceasta distinge energia potențială de energia cinetică, care pentru mișcarea termică poate varia foarte mult de la atom la atom.

Dacă o bucată de metal, ridicată la o anumită înălțime, este eliberată, atunci energia sa potențială se va transforma în energie cinetică, dar entropia practic nu va crește, deoarece toți atomii se vor mișca aproximativ la fel. Dar când piesa lovește pământul, atomilor de metal li se va da o direcție aleatorie de mișcare în timpul impactului, iar entropia va crește dramatic. Energia cinetică a mișcării direcționate se va transforma în energia cinetică a mișcării termice. Înainte de impact, știam aproximativ cum se mișcă fiecare atom, dar acum am pierdut această informație.

Înțelegerea celei de-a doua lege a termodinamicii

A doua lege a termodinamicii spune că entropia (a unui sistem închis) nu scade niciodată. Acum putem înțelege de ce: pentru că este imposibil să obținem dintr-o dată mai multe informații despre microstări. Odată ce ați pierdut unele informații de microstare (ca atunci când o bucată de metal lovește pământul), nu o puteți recupera.


Să revenim la zaruri. Amintiți-vă că o macrostare cu o sumă de 59 are o entropie foarte scăzută, dar nu este atât de ușor de obținut. Dacă arunci zarurile iar și iar, vor apărea acele sume (macrostări) care corespund unui număr mai mare de microstări, adică se vor realiza macrostări cu entropie mare. Suma 35 are cea mai mare entropie și această sumă va apărea mai des decât altele. Este exact ceea ce spune a doua lege a termodinamicii. Orice interacțiune aleatorie (necontrolată) duce la o creștere a entropiei, cel puțin până când atinge maximul.

Amestecarea gazelor

Și încă un exemplu pentru a întări ceea ce s-a spus. Să avem un recipient care conține două gaze separate printr-un despărțitor situat în mijlocul recipientului. Să numim moleculele unui gaz albastru și celuilalt roșu.

Dacă deschideți partiția, gazele vor începe să se amestece, deoarece numărul de microstări în care gazele sunt amestecate este mult mai mare decât microstările în care sunt separate și toate microstările sunt în mod natural la fel de probabile. Când am deschis partiția, pentru fiecare moleculă am pierdut informații despre ce parte a partiției se afla acum. Dacă au existat N molecule, atunci s-au pierdut N biți de informație (biții și simbolurile, în acest context, sunt, de fapt, același lucru și diferă doar printr-un anumit factor constant).

Am de-a face cu demonul lui Maxwell

Și, în sfârșit, să luăm în considerare soluția în cadrul paradigmei noastre la faimosul paradox al demonului lui Maxwell. Permiteți-mi să vă reamintesc că este după cum urmează. Să avem gaze amestecate de molecule albastre și roșii. Să punem partiția înapoi, făcând o mică gaură în ea, în care vom pune un demon imaginar. Sarcina lui este să treacă doar pe cele roșii de la stânga la dreapta și doar pe cele albastre de la dreapta la stânga. Evident, după ceva timp gazele vor fi din nou separate: toate moleculele albastre vor fi în stânga partiției, iar toate moleculele roșii vor fi în dreapta.


Se pare că demonul nostru a scăzut entropia sistemului. Nu s-a întâmplat nimic cu demonul, adică entropia lui nu s-a schimbat, iar sistemul nostru a fost închis. Se pare că am găsit un exemplu când a doua lege a termodinamicii nu este îndeplinită! Cum a fost posibil acest lucru?

Soluția la acest paradox este însă foarte simplă. La urma urmei, entropia este o proprietate nu a unui sistem, ci a cunoștințelor noastre despre acest sistem. Tu și cu mine știm puține despre sistem, motiv pentru care ni se pare că entropia lui este în scădere. Dar demonul nostru știe multe despre sistem - pentru a separa molecule, trebuie să cunoască poziția și viteza fiecăruia dintre ele (cel puțin atunci când se apropie de el). Dacă știe totul despre molecule, atunci din punctul său de vedere entropia sistemului este, de fapt, egală cu zero - pur și simplu nu are informațiile care lipsesc despre el. În acest caz, entropia sistemului a fost egală cu zero și a rămas egală cu zero, iar a doua lege a termodinamicii nu a fost încălcată nicăieri.

Dar chiar dacă demonul nu cunoaște toate informațiile despre microstarea sistemului, cel puțin trebuie să cunoască culoarea moleculei care se apropie de el pentru a înțelege dacă să o lase sau nu. Și dacă numărul total de molecule este N, atunci demonul ar trebui să aibă N biți de informații despre sistem - dar exact asta am pierdut atunci când am deschis partiția. Adică, cantitatea de informații pierdute este exact egală cu cantitatea de informații care trebuie obținută despre sistem pentru a-l readuce la starea inițială - și acest lucru sună destul de logic și, din nou, nu contrazice a doua lege a termodinamicii. .

A doua lege a termodinamicii are mai multe formulări. Formularea lui Clausius: procesul de transfer de căldură de la un corp cu o temperatură mai scăzută la un corp cu o temperatură mai mare este imposibil.

Formularea lui Thomson: un proces este imposibil, al cărui rezultat ar fi efectuarea unui lucru datorat căldurii preluate dintr-un anumit corp. Această formulare impune o limitare a conversiei energiei interne în energie mecanică. Este imposibil să construiești o mașină (o mașină cu mișcare perpetuă de al doilea fel) care să funcționeze numai prin primirea căldurii din mediul înconjurător.

Formularea Boltzmann: Entropie- Acesta este un indicator al tulburării sistemului. Cu cât entropia este mai mare, cu atât este mai haotică mișcarea particulelor materiale care alcătuiesc sistemul. Să vedem cum funcționează folosind apa ca exemplu. În stare lichidă, apa este o structură destul de dezordonată, deoarece moleculele se mișcă liber unele față de altele, iar orientarea lor spațială poate fi arbitrară. Gheața este o altă chestiune - în ea sunt ordonate moleculele de apă, fiind incluse în rețeaua cristalină. Formularea celei de-a doua legi a termodinamicii a lui Boltzmann, relativ vorbind, afirmă că gheața, topindu-se și transformată în apă (un proces însoțit de o scădere a gradului de ordine și o creștere a entropiei), nu va renaște niciodată din Entropie nu poate scădea în sistemele închise - adică în sistemele care nu primesc alimentare externă cu energie.

A treia lege a termodinamicii (teorema lui Nernst) este un principiu fizic care determină comportamentul entropiei pe măsură ce temperatura se apropie de zero absolut. Este unul dintre postulatele termodinamicii, acceptat pe baza unei generalizări a unei cantități semnificative de date experimentale.

A treia lege a termodinamicii poate fi formulată după cum urmează:

„Creșterea entropiei la temperatura zero absolut tinde spre o limită finită, independent de starea de echilibru în care se află sistemul”.

unde este orice parametru termodinamic.

A treia lege a termodinamicii se aplică numai stărilor de echilibru.

Deoarece, pe baza celei de-a doua lege a termodinamicii, entropia poate fi determinată doar până la o constantă aditivă arbitrară (adică nu este determinată entropia în sine, ci doar modificarea acesteia):

a treia lege a termodinamicii poate fi folosită pentru a determina cu precizie entropia. În acest caz, entropia sistemului de echilibru la temperatura zero absolut este considerată egală cu zero.

Entropia gazelor ideale

Pentru a obține o expresie calculată pentru modificarea entropiei gazelor ideale, folosim prima lege a termodinamicii, în care căldura este determinată folosind modificarea entalpiei.

Diferența dintre entropiile unui gaz ideal în două stări specifice poate fi obținută prin integrarea expresiei (4.59)

Pentru a determina valoarea absolută a entropiei unui gaz ideal, este necesar să se fixeze începutul numărării acestuia cu orice pereche de parametri termici ai stării. De exemplu, luând s 0 =0 la T 0 și P 0, folosind ecuația (4.60), obținem

Expresia (4.62) indică faptul că entropia unui gaz ideal este un parametru de stare, deoarece poate fi determinată prin orice pereche de parametri de stare. La rândul său, deoarece entropia în sine este un parametru de stare, folosindu-l împreună cu orice parametru de stare independent, este posibil să se determine orice alt parametru de stare a gazului.

Conceptul de entropie este folosit în diverse științe: fizică, chimie, matematică, biologie, sociologie. Cuvântul în sine provine din greacă și înseamnă „transformare, schimbare”. Ce este asta în cuvinte simple? Putem spune că aceasta este o măsură a dezordinei, haosului în orice sistem. Cu cât ordinul este mai mic, cu atât valoarea sa este mai mare. Dacă cărțile sunt pe un raft, sunt mai puțin dezordonate decât dacă sunt într-o grămadă.

Definiția acestui termen depinde de domeniul de aplicare al acestuia. În termeni generali putem spune că este o măsură a dezordinei și a disipării ireversibile a energiei. Cu cât un sistem este mai ordonat, cu atât energia este mai concentrată. De exemplu, dacă punem un obiect fierbinte în apă rece, acesta se va răci treptat și apa se va încălzi. În al doilea caz, entropia este mai mare.

Important! Entropia caracterizează tulburarea. Cu cât este mai mare, cu atât sistemul este mai puțin ordonat.

Orice poate acționa ca un sistem. În fizică sau chimie, acesta este de obicei un gaz, lichid, solid sau un set de un anumit număr de particule. În informatică, acesta ar putea fi un text, în sociologie un grup de oameni.

Termenul de entropie

În fizică

Acest termen este folosit în ramuri ale fizicii precum termodinamica și fizica statistică. Termodinamica studiază metodele de transfer și transformare a energiei. Se ocupă de procese în care poate fi utilizat conceptul de temperatură. În termodinamică a fost folosit pentru prima dată acest concept. A fost introdus de omul de știință german Rudolf Clausius. Mecanica statistică studiază comportamentul sistemelor cu un număr finit de particule, folosind metodele teoriei probabilităților.

În diferite ramuri ale fizicii, acest termen înseamnă lucruri ușor diferite. În termodinamică, este o caracteristică a disipării ireversibile a energiei. În fizica statistică, această cantitate arată probabilitatea unei stări.

În termodinamică

Entropia este singura mărime care arată direcția proceselor fizice. Ce înseamnă?

  • Într-un sistem izolat, adică unul care nu face schimb de materie sau energie cu obiectele din jur, procesele decurg întotdeauna în așa fel încât dezordinea să crească. După ce a atins un maxim, acesta rămâne constant. Aceasta este esența celei de-a doua legi a termodinamicii.
  • Procesele reversibile nu schimbă tulburarea.
  • Procesele ireversibile decurg întotdeauna în așa fel încât tulburarea să crească.
    Într-un sistem deschis, această valoare poate crește sau rămâne constantă procese în care sunt posibile și scăderi de dezordine. Adică prin intervenție externă putem reduce dezordinea.

Orice sistem care se află în condiții externe constante ajunge în cele din urmă într-o stare de echilibru și nu poate ieși singur din el. În acest caz, toate părțile sale vor avea aceeași temperatură. Aceasta este legea zero a termodinamicii.

Există cea mai mare dezordine în echilibru. De exemplu, există un vas împărțit printr-o partiție. Pe o parte este un gaz, pe cealaltă este altul. Dacă îndepărtați partiția, gazele se vor amesteca treptat și nu se vor separa din nou singure. Această stare va fi mai dezordonată decât starea în care gazele au fost separate.

În fizică, această cantitate este o funcție a stării sistemului. Aceasta înseamnă că depinde de parametrii sistemului:

  • temperatura;
  • presiune;
  • volum;
  • energie interna.

În mecanica statistică

În mecanica statistică, acest concept este asociat cu probabilitatea de a obține o anumită stare. De exemplu, pentru mai multe obiecte sau particule depinde de numărul de moduri de a le aranja.

Există mai multe definiții ale acestei cantități. Cea mai simplă definiție a lui Bolzamann. Este egal cu logaritmul probabilității de stare înmulțit cu constanta lui Boltzmann: S=k*ln(W).

Video util: ce este entropia

Valoare absolută

Entropia este o mărime nenegativă (mai mare sau egală cu zero). Cu cât temperatura este mai aproape de zero absolut, cu atât este mai aproape de zero. Aceasta este a treia lege a termodinamicii. A fost formulat inițial de Max Planck în 1911.

A treia lege a termodinamicii se mai numește și principiul imposibilității de a atinge zero absolut. Aceasta înseamnă că în timpul oricăror procese asociate cu o modificare a tulburării, este imposibil să se ajungă la zero absolut (0K sau -273,15 C). Nu te poți apropia decât la nesfârșit de această temperatură. Oamenii de știință au fost de acord că la 0 K tulburarea este 0.

Important! Valoarea absolută a dezordinei poate fi calculată ca modificarea energiei la o anumită temperatură.

În termodinamică, valoarea absolută nu este de obicei importantă, doar modificarea ei este importantă. Cu toate acestea, poate fi găsită și valoarea absolută. Se calculează folosind diferite formule pentru stările solide, lichide și gazoase ale unei substanțe. Această cantitate se măsoară în J/K sau J/grad, adică în aceleași unități ca și capacitatea termică. Este convenabil să împărțiți această valoare la masa sau numărul de moli ai substanței. Prin urmare, se folosesc unitățile J/(mol*K) sau J/(mol*grad), în funcție de măsurarea temperaturii în kelvins sau grade.

În chimie

Ce este, de exemplu, entropia în chimie? Acest concept este folosit în termodinamica chimică. Ceea ce este important aici este schimbarea acestei valori. Dacă este pozitiv, atunci sistemul devine mai puțin ordonat. Cunoașterea acestui lucru este importantă pentru a determina direcția reacțiilor chimice și pentru a schimba echilibrul chimic. Acest termen este asociat cu conceptul de entalpie - energie care poate fi transformată în căldură la o anumită presiune constantă.

Modificarea tulburării poate determina dacă o reacție poate avea loc spontan. Acest lucru nu se poate face doar prin schimbarea energiei, deoarece există atât reacții care apar odată cu absorbția căldurii, cât și reacții care apar odată cu eliberarea acesteia. Conform celei de-a doua legi a termodinamicii, starea cu cea mai mare dezordine este cea mai stabilă stare a unui sistem închis. De asemenea, orice sistem închis tinde spre starea cea mai puțin ordonată. Prin urmare, în procesele spontane, tulburarea crește.

În teoria informaţiei

Entropia informațională caracterizează impredictibilitatea oricărui sistem. De exemplu, aceasta ar putea fi probabilitatea apariției unui caracter din alfabet în text. Mai mult, această funcție este egală cu cantitatea de informații care cade pe un caracter. Claude Shannon, omul de știință care a introdus acest termen în teoria informației, chiar și-a dorit inițial să numească această cantitate informație.

Shannon a sugerat că prin creșterea cantității de informații reducem incertitudinea. Prin eficientizarea sistemului, reducem și incertitudinea.

Important! Cu cât un eveniment este mai previzibil, cu atât este mai puțin informativ și cu atât există mai puțină tulburare.

Folosind această incertitudine, puteți prezice evenimente, de exemplu, rezultatul unui experiment. Pentru a face acest lucru, evenimentele sunt împărțite în părți separate și este luată în considerare incertitudinea pentru ele.

Entropia informației este legată de numărul de stări disponibile. Cu cât acest număr este mai mare, cu atât este mai mare. De exemplu, dacă jucăm șah conform regulilor, pentru o tablă de șah această valoare va fi mai mică decât dacă rearanjam piesele haotic. Incertitudinea pentru o monedă care poate ateriza doar pe o parte sau pe cealaltă este mai mică decât cea a unui zar cu 6 fețe și chiar mai mare pentru un zar cu 20 de fețe.

Există și entropia limbajului. Acest concept denotă cantitatea de informații per unitate de text în această limbă (un caracter) și este măsurată în biți pe literă. Este diferit pentru diferite limbi.

Într-o limbă, unele simboluri apar mai des, altele mai puțin frecvent și există, de asemenea, anumite combinații de simboluri care apar frecvent. Analizând probabilitatea apariției unui anumit caracter, puteți decoda textul cifrat. Dereglarea informației ajută, de asemenea, la determinarea capacității necesare a canalului pentru transmiterea mesajelor criptate.

Analiza entropiei informaționale este utilizată pentru a analiza date într-o varietate de domenii, de la medicină la sociologie. În termeni simpli, putem spune că prin analiza creșterii sau scăderii dezordinei se pot stabili legături între fenomene.

Conceptul de „entropie informațională” este folosit și în statistica matematică și în fizica statistică. Aceste științe se ocupă și de probabilitatea diferitelor stări și folosesc metodele teoriei probabilităților.

În economie

În economie, este folosit conceptul de „coeficient de entropie”. Este asociat cu concentrarea vânzătorilor pe piață. Cu cât concentrația este mai mare, cu atât este mai mic acest coeficient sau indice. Depinde de distribuția acțiunilor între firme de pe piață și cu cât diferența de mărime a acestor acțiuni este mai mare, cu atât coeficientul de entropie este mai mare.

Dacă împărțiți acest indice la numărul de firme de pe piață, obțineți un indicator relativ. Se notează cu litera E. Valoarea sa este între 0 și 1. Valoarea E=0 corespunde monopolului, iar E=1 - concurență perfectă.

Ce spune Wikipedia

Puteți găsi diferite definiții ale acestui concept pe Wikipedia. Cel mai general lucru este o măsură a disipării ireversibile a energiei, abaterea unui proces real de la unul ideal. Puteți găsi și pe Wikipedia:

  • articole despre acest termen în termodinamica clasică;
  • în ecologie biologică;
  • entropia Universului;
  • limba;
  • diferenţial;
  • topologic;
  • informativ.

Videoclip util: Înțelegerea entropiei

Concluzie

Termenul de „entropie” a fost folosit pentru prima dată în termodinamică de către Rudolf Clausius. De la fizică a ajuns la alte științe. Acest concept denotă dezordine, haos, imprevizibilitate și este strâns legat de probabilitate. Analiza entropiei ajută la studiul datelor și la găsirea conexiunilor între fenomene, la determinarea direcțiilor proceselor fizice și chimice.

De obicei, orice proces fizic în care un sistem trece treptat de la o stare la alta se desfășoară în moduri diferite, deci este aproape imposibil să inversezi acest fenomen. Pentru a face acest lucru, este necesar să folosiți indicatori de timp intermediar în corpurile din jurul unui anumit mediu. Acest lucru este direct legat de faptul că în acest proces o parte a potențialului energetic este disipată prin frecare și radiație constantă.

Figura 1. Entropia termodinamică. Autor24 - schimb online de lucrări ale studenților

Conform legilor termodinamicii, aproape toate fenomenele din natură sunt ireversibile. În orice proces fizic, o parte din energie se pierde treptat. Pentru a caracteriza și descrie disiparea energiei, se introduce definiția entropiei, care explică starea termică a conceptului și determină probabilitatea apariției unei noi stări a corpului. Cu cât aceste stări sunt mai probabile, cu atât indicele de entropie este mai mare. Toate situațiile naturale din viața obișnuită sunt însoțite de creșterea acestui element, care rămâne constantă doar în cazul unui proces idealizat observat într-un sistem închis.

Definiția 1

Entropia este o funcție universală a stării unui anumit sistem, o ușoară modificare în care într-o situație reversibilă este egală cu raportul unei cantități neglijabile de căldură introdusă într-un proces dat la temperatura corespunzătoare stării inițiale.

Deoarece entropia este funcția principală a stării unui corp fizic, proprietatea integralei este independența sa și independența față de forma conturului de la care se calculează astfel:

  • în orice fenomen fizic reversibil, modificările entropiei sunt egale cu zero;
  • în termodinamică se dovedește că un sistem de ciclu ireversibil crește cu parametri intermediari egali;
  • entropia unui sistem închis poate fie să crească, fie să rămână într-o stare stabilă.

În consecință, funcția termodinamică indicată are caracteristicile aditivității: entropia fiecărui sistem este egală cu suma entropiilor corpurilor materiale incluse în sistem: $S = S_1 + S_2 + S_3 + …$ O diferență semnificativă între mișcarea termică a particulelor elementare și a altor forme de mișcare este dezordinea și natura lor haotică. Prin urmare, pentru a descrie mișcarea termică, este inițial necesar să se introducă un nivel cantitativ de instabilitate moleculară. Dacă luăm în considerare o anumită stare macroscopică a unei substanțe cu orice valori medii ale parametrilor, atunci aceasta nu reprezintă nimic mai mult decât o schimbare sistematică a microstărilor strâns distanțate, care diferă unele de altele în distribuția moleculelor în diferite părți ale volumului.

Definiția statistică a entropiei: principiul lui Boltzmann

Figura 2. Semnificația statistică a entropiei. Autor24 - schimb online de lucrări ale studenților

În 1877, omul de știință Ludwig Boltzmann a descoperit că conceptul de entropie ar putea fi printre „microstări” plauzibile care sunt în concordanță cu proprietățile termodinamice fundamentale. Un bun exemplu al acestui fenomen este un gaz ideal într-un vas. Microstarea din elementul specificat este definită ca impulsurile și pozițiile (momentele de mișcare) ale fiecărui atom și moleculă care compun sistemul.

Complexitatea necesită ca oamenii de știință să studieze numai acele microstări pentru care:

  • locațiile tuturor pieselor mobile sunt situate în interiorul navei;
  • pentru a obține potențialul energetic total, se însumează în cele din urmă energiile cinetice ale gazului;
  • constanta termică determină apoi numărul de microstări care sunt posibile într-o stare dată (ponderea statistică a stării).

Un astfel de postulat, cunoscut în știință sub denumirea de principiul Boltzmann, poate fi caracterizat drept începutul mecanicii statistice, descriind în detaliu principalele sisteme termodinamice și utilizând în scopurile sale principiile fizicii clasice și cuantice.

Nota 1

În termodinamică, legea lui Boltzmann conectează toate proprietățile microscopice ale unui sistem cu una dintre proprietățile sale dinamice.

Conform definiției cercetătorului, entropia este pur și simplu o funcție suplimentară de stare, ai cărei parametri nu poate fi decât un număr natural.

Înțelegerea entropiei ca măsură a dezordinei

Există o părere că entropia poate fi considerată ca o măsură a dezordinei într-un anumit sistem. Uneori, din punct de vedere științific, acest lucru poate fi justificat, deoarece adesea oamenii de știință se gândesc în primul rând la concepte „ordonate” ca elemente cu posibilitate practic zero de configurare ulterioară, dar ca sisteme „instabile” cu multe stări posibile. De fapt, aceasta este pur și simplu o interpretare reformulată a entropiei ca număr de microstări care operează într-un anumit mediu.

O astfel de definiție a dezordinei și haosului unui sistem termodinamic ca parametru principal al configurabilității conceptului corespunde aproape literal cu formularea entropiei sub formă de microstări.

Problemele încep în două cazuri specifice:

  • când fizicienii încep să amestece diferite înțelegeri ale dezordinei, cu rezultatul că entropia devine o măsură a dezordinei în general;
  • când definiția entropiei este utilizată pentru sisteme care nu sunt inițial termodinamice.

În cazurile de mai sus, utilizarea conceptului de entropie în termodinamică este absolut ilegală.

Valoarea entropiei pentru organismele vii

Toate transformările și transformările energiei interne sunt descrise în fizică de legile termodinamicii, care, cu modele fizice adecvate și restricții fizice bine formulate, sunt destul de aplicabile proceselor de viață instabile. O scădere a indicatorului de entropie (apariția energiei negative după Schrödinger) într-un organism viu, cu interacțiunea sa strânsă cu mediul, duce automat la o creștere a potențialului de energie liberă.

Nota 2

Dacă un sistem „abate” de la echilibrul constant, atunci cu siguranță trebuie să compenseze ulterior creșterea entropiei cu altă energie, din punctul de vedere al științei - energie liberă.

Astfel, natura vie încearcă să evite creșterea entropiei, sporind semnificația acesteia în mediu atunci când un organism viu comunică cu acesta. Entropia este energie „moartă” care nu poate fi transformată în muncă stabilă. Conform legilor termodinamicii clasice, în sisteme izolate, haotice, căldura este complet disipată, prin urmare, procesul trece de la ordine la haos.

Pentru microorganismele vii, ca principale sisteme deschise, din punct de vedere științific, actul de apariție a viețuitoarelor va fi caracterizat prin transformarea spontană a energiei termice a funcțiilor ireversibile în muncă mecanică, intenționată, de creare a unui sistem foarte dezvoltat. Toate acestea se pot realiza prin prezența energiei libere. În consecință, dezechilibrul termodinamic al sistemelor vii existente indică ordinea lor obligatorie, deoarece echilibrul complet corespunde haosului și aceasta duce în cele din urmă la moartea unui organism viu atunci când entropia sa este la nivelul maxim.

În general, entropia acționează ca o măsură a incertitudinii și instabilității, făcând o medie a comportamentului obiectelor fizice, stabilind starea corectă și chiar o anumită uniformitate. Activitatea vitală a sistemelor biologice demonstrează că acestea nu doresc să se supună legii termodinamicii pentru un mediu izolat.

Se poate observa că raportul dintre temperatura frigiderului și temperatura încălzitorului este egal cu raportul dintre cantitatea de căldură dată de fluidul de lucru la frigider și cantitatea de căldură primită de la încălzitor. Aceasta înseamnă că pentru un motor termic ideal care funcționează conform ciclului Carnot este îndeplinită următoarea relație: . Atitudine Lorenz numit căldură redusă . Pentru un proces elementar, căldura redusă va fi egală cu . Aceasta înseamnă că atunci când ciclul Carnot este implementat (și este un proces ciclic reversibil), căldura redusă rămâne neschimbată și se comportă în funcție de stare, atunci, după cum se știe, cantitatea de căldură este o funcție a procesului.

Folosind prima lege a termodinamicii pentru procese reversibile, și împărțind ambele părți ale acestei egalități la temperatură, obținem:

(3.70)

Căldura nu se poate muta spontan de la un corp mai rece la unul mai fierbinte fără o altă modificare a sistemului.