Entropia e informacionit

Nga testwiki
Kërceni tek navigimi Kërceni tek kërkimi

Në teorinë e informacionit, entropia e një ndryshoreje të rastit është niveli mesatar i "informacionit", "befasisë" ose "pasigurisë" i natyrshëm për rezultatet e mundshme të ndryshores. Jepet një ndryshore e rastit diskrete X, e cila merr vlera në bashkësinë 𝒳 dhe shpërndahet sipas p:𝒳[0,1] :H(X):=x𝒳p(x)logp(x)=𝔼[logp(X)],ku Σ tregon shumën mbi vlerat e mundshme të ndryshores. Zgjedhja e bazës për log, logaritmi, ndryshon për zbatime të ndryshme. Baza 2 jep njësinë e biteve (ose " shannons "), ndërsa baza e jep "njësi natyrore" nat, dhe baza 10 jep njësi "dits", "bans" ose " hartleys ". Një përkufizim i njëvlershëm i entropisë është vlera e pritur e vetë-informimit të një ndryshoreje. [1]

Dy bite entropie: Në rastin e dy hedhjeve të ndershme të monedhave, entropia e informacionit në bit është logaritmi bazë-2 i numrit të rezultateve të mundshme; me dy monedha ka katër rezultate të mundshme dhe dy pjesë entropie. Në përgjithësi, entropia e informacionit është sasia mesatare e informacionit të përcjellë nga një ngjarje, kur merren parasysh të gjitha rezultatet e mundshme.

Koncepti i entropisë së informacionit u prezantua nga Claude Shannon në punimin e tij të vitit 1948 " A Mathematical Teory of Communication ", [2] [3] dhe referohet gjithashtu si entropia Shannon .

Entropia në teorinë e informacionit është drejtpërdrejt analoge me entropinë në termodinamikën statistikore . Analogjia rezulton kur vlerat e ndryshores së rastësishme përcaktojnë energjitë e mikrogjendjeve, kështu që formula e Gibbs-it për entropinë është zyrtarisht identike me formulën e Shannon-it. Entropia ka lidhje me fusha të tjera të matematikës si kombinatorika dhe mësimi makinerik . Përkufizimi mund të rrjedhë nga një grup aksiomash që vërtetojnë se entropia duhet të jetë një masë se sa informative është rezultati mesatar i një ndryshoreje. Për një ndryshore të rastit të vazhdueshme, entropia diferenciale është analoge me entropinë.

E ç'është entropia e informacionit?

I emëruar sipas teoremës Η të Boltzmann-it, Shannon përcaktoi entropinë H (gërma e madhe greke eta ) të një ndryshoreje diskrete tërastit. X, e cila merr vlera në alfabet 𝒳 dhe shpërndahet sipas p:𝒳[0,1] sikurse p(x):=[X=x] :H(X)=𝔼[I(X)]=𝔼[logp(X)].Këtu 𝔼 është operatori i pritjes matematike, dhe I është përmbajtja e informacionit të X [4] Stampa:Rp[5] Stampa:RpI(X) është në vetvete një ndryshore e rastit.

Entropia mund të shkruhet shprehimisht si:H(X)=x𝒳p(x)logbp(x),Mund të përcaktohet gjithashtu entropia e kushtëzuar e dy ndryshoreve X dhe Y duke marrë vlera nga bashkësitë 𝒳 dhe 𝒴 përkatësisht, si: [6] Stampa:RpH(X|Y)=x,y𝒳×𝒴pX,Y(x,y)logpX,Y(x,y)pY(y),ku pX,Y(x,y):=[X=x,Y=y] dhe pY(y)=[Y=y] . Kjo madhësi duhet të kuptohet si rastësia e mbetur në ndryshoren e rastit X duke pasur parasysh ndryshoren e rastit Y .

Shembull

Entropia H(X) (dmth surpriza e pritshme ) e një rrotullimi të monedhës, e matur në bit, e grafikuar kundrejt paragjykimit të monedhës Pr(X=1), ku X = 1 përfaqëson një rezultat të kokave. [6] Stampa:Rp

Këtu, entropia është më së shumti 1 bit dhe për të komunikuar rezultatin e një rrokullisjeje monedhe (2 vlera të mundshme) do të kërkojë një mesatare prej më së shumti 1 bit (saktësisht 1 bit për një monedhë të drejtë). Rezultati i një die të drejtë (6 vlera të mundshme) do të kishte regjistrin e entropisë 2 6 bit.

Merrni parasysh hedhjen e një monedhe me probabilitete të njohura, jo domosdoshmërisht të ndershme, për të dalë kokë ose pil; ky mund të modelohet si një proces Bernoulli .

Entropia e rezultatit të panjohur të hedhjes tjetër të monedhës maksimizohet nëse monedha është e ndershme (d.m.th., nëse koka dhe pili kanë të dyja probabilitet të barabartë 1/2). Kjo është situata e pasigurisë maksimale pasi është më e vështirë të parashikohet rezultati i hedhjes së radhës; rezultati i çdo hedhjeje të monedhës jep një pjesë të plotë të informacionit. Kjo është për shkak seH(X)=i=1np(xi)logbp(xi)=i=1212log212=i=1212(1)=1Megjithatë, nëse e dimë se monedha nuk është e drejtë, por del lart ose bisht me probabilitete p dhe q, ku p ≠ q, atëherë ka më pak pasiguri. Sa herë që hidhet, njëra anë ka më shumë gjasa të dalë lart se tjetra. Pasiguria e reduktuar matet në një entropi më të ulët: mesatarisht çdo hedhje e monedhës jep më pak se një pjesë të plotë të informacionit. Për shembull, nëse p = 0.7, atëherëH(X)=plog2(p)qlog2(q)=0.7log2(0.7)0.3log2(0.3)0.7(0.515)0.3(1.737)=0.8816<1

  1. Stampa:Cite book
  2. Stampa:Cite journal (PDF, archived from here)
  3. Stampa:Cite journal (PDF, archived from here)
  4. Stampa:Cite book
  5. Stampa:Cite book
  6. 6,0 6,1 Stampa:Cite book Gabim citimi: Invalid <ref> tag; name "cover1991" defined multiple times with different content