Definicija entropija

Entropija je pojam koji dolazi od grčke riječi koja se može prevesti kao "povratak" ili "transformacija" (korištena figurativno).

entropija

U devetnaestom stoljeću Clausius je skovao koncept u području fizike da se odnosi na mjeru poremećaja koji se može vidjeti u molekulama plina. Od tada će se ovaj koncept koristiti s različitim značenjima u višestrukim znanostima, kao što su fizika, kemija, računalne znanosti, matematika i lingvistika .

Neke definicije su:

Entropija može biti termodinamička fizička veličina koja nam omogućuje mjerenje neuporabljivog dijela energije sadržane u sustavu . To znači da se taj dio energije ne može koristiti za stvaranje posla.

Entropija se također shvaća kao mjera nereda u sustavu . U tom smislu, to je povezano s određenim stupnjem homogenosti.

Entropija stvaranja kemijskog spoja utvrđuje se mjerenjem onoga što odgovara svakom od njegovih sastavnih elemenata. Što je veća entropija formacije, to će ona biti povoljnija.

U teoriji informacija, entropija je mjera nesigurnosti koja postoji prije skupa poruka (od kojih će samo jedna biti primljena). To je mjera informacija koja je potrebna za smanjenje ili uklanjanje nesigurnosti.

Drugi način za razumijevanje entropije jest prosječna količina informacija sadržanih u prenesenim simbolima . Riječi kao što su "the" ili "that" su najčešći simboli u tekstu, ali, ipak, oni su oni koji pridonose manje informacija. Poruka će imati relevantne informacije i maksimalnu entropiju kada su svi simboli jednako vjerojatni.

Entropija u području lingvistike

Način na koji se informacije organiziraju i šire u diskursu jedna je od najvažnijih i najosjetljivijih tema istraživanja za lingvistiku. Zahvaljujući entropiji može se napraviti dublja analiza komunikacije.

U slučaju pisane komunikacije, problem je jednostavan za analizu (osnovne jedinice, slova su dobro definirana); Ako želite temeljito razumjeti poruku, možete je dešifrirati točno i razumjeti i doslovno i figurativno . Ali u usmenom jeziku, stvari se malo mijenjaju, što predstavlja neke komplikacije.

entropija Nije lako odrediti u usmenom diskursu temeljne elemente koda ; Riječi zvuče drugačije prema tome tko ih kaže i, isto tako, mogu imati različita značenja. Stoga ih nije dovoljno klasificirati u vokalne i konsonantne foneme, jer nam to ne bi omogućilo da shvatimo kako je informacija organizirana jer, na primjer, ako su vokalne foneme potisnute, nije moguće razumjeti poruku.

Prema istraživanju provedenom na Sveučilištu Wisconsin-Madison, dobar način da se izolira i razumije usmeni kod je kroz spektralnu razgradnju zvučnih signala. Zahvaljujući ovoj tehnici pokušavamo razumjeti kako pužnica filtrira i analizira što dolazi do nje. Pužnica je dio naših ušiju koja ima funkciju pretvaranja zvukova u električne signale i njihovo slanje izravno u mozak.

Kako bi se proveo ovaj eksperiment, korištena je mjerna jedinica poznata kao "spektralna entropija na kohlearnoj skali" (CSE), koja omogućuje uspostavljanje veza između signala i onoga koji mu prethodi ; odlučivanja o mogućnostima predviđanja signala počevši od prethodnog.

Rezultati su pokazali da što su dva signala sličnija, to je lakše predvidjeti drugi ; To znači da je informacija koju uzmemo iz drugog gotovo nula. Isto tako, što se više razlikuju jedni od drugih, to su informacije koje daje drugi signal veće, pa ako se eliminira, to će prouzročiti značajne posljedice u razumijevanju diskursa.

Preporučeno