Informacioni i Fisherit

Nga testwiki
Kërceni tek navigimi Kërceni tek kërkimi

Në statistikën matematikore, informacioni i Fisherit (nganjëherë i quajtur thjesht informacion [1] ) është një mënyrë për të matur sasinë e informacionit që një ndryshore e rastësishme e vëzhgueshme X mbart për një parametër të panjohur ϑ të një shpërndarjeje që modelon X. Formalisht, është varianca e rezultatit, ose pritja matematike e informacionit të vëzhguar .

Roli i informacionit të Fisherit në teorinë asimptotike të vlerësimit të përgjasisë maksimale u theksua nga statisticieni Ronald Fisher (pas disa rezultateve fillestare nga Francis Ysidro Edgeworth ). Matrica e informacionit Fisher përdoret për të llogaritur matricat e kovariancës të lidhura me vlerësimet e përgjasisë maksimale . Mund të përdoret gjithashtu në formulimin e statistikave të testimit, siç është testi Wald .

Sistemet statistikore të natyrës shkencore (fizike, biologjike, etj.) funksionet e përgjasisë të së cilave i binden invariancës së zhvendosjes, është treguar se i binden informacionit maksimal të Fisherit. [2] Niveli i maksimumit varet nga natyra e kufizimeve të sistemit.

Përkufizimi

Informacioni i Fisherit është një mënyrë për të matur sasinë e informacionit që një ndryshore e rastit e vëzhgueshme X mbart një parametër të panjohur θ mbi të cilën probabiliteti i X varet. Le f(X;θ) të jetë funksioni i dendësisë së probabilitetit (ose funksioni i masës së probabilitetit ) për X të kushtëzuara nga vlera e θ . Ai përshkruan probabilitetin që ne të vëzhgojmë një rezultat të caktuar X, duke pasur parasysh një vlerë të njohur të θ . Nëse f është me kulm të mprehtë në lidhje me ndryshimet në θ, është e lehtë të tregohet vlera "e saktë" e θ nga të dhënat, ose në mënyrë të njëvlershme, që e dhëna X jep shumë informacion në lidhje me parametrin θ . Nëse f është i sheshtë dhe i shtrirë, atëherë do të duheshin shumë popullime të X për të vlerësuar vlerën e tanishme "të vërtetë" të θdo të përftoheshin duke përdorur të gjithë popullatën që po ekzaminohet. Kjo sugjeron studimin e një lloj variance në lidhje me θ .

Formalisht, derivati i pjesshëm në lidhje me θ i logaritmit natyror të funksionit të përgjasisë quhet pikë . Në kushte të caktuara rregullsie, nëse θ është parametri i vërtetë (d.m.th X në fakt shpërndahet si f(X;θ) ), mund të tregohet se vlera e pritur ( momenti i parë ) i rezultatit, e vlerësuar me vlerën e vërtetë të parametrit θ, është 0: [3]

E[θlogf(X;θ)|θ]=θf(x;θ)f(x;θ)f(x;θ)dx=θf(x;θ)dx=θ1=0.

Informacioni Fisher është përcaktuar të jetë varianca e rezultatit: [4]

(θ)=E[(θlogf(X;θ))2|θ]=(θlogf(x;θ))2f(x;θ)dx,

Vini re se 0(θ) . Një ndryshore e rastit që përmban informacion të lartë Fisher nënkupton që vlera absolute e pikësimit/rezultatit është shpesh e lartë. Informacioni Fisher nuk është një funksion i një vëzhgimi të veçantë, pasi ndryshorja e rastit X është vlerësuar mesatarisht.

Nëse logf(x;θ) është dy herë i diferencueshëm në lidhje me θ, dhe në kushte të caktuara rregullsie, atëherë informacioni i Fisherut mund të shkruhet gjithashtu si [5]

(θ)=E[2θ2logf(X;θ)|θ],

meqënëse

2θ2logf(X;θ)=2θ2f(X;θ)f(X;θ)(θf(X;θ)f(X;θ))2=2θ2f(X;θ)f(X;θ)(θlogf(X;θ))2

dhe

E[2θ2f(X;θ)f(X;θ)|θ]=2θ2f(x;θ)dx=0.
  1. Lehmann & Casella, p. 115
  2. Frieden & Gatenby (2013)
  3. Stampa:Cite web
  4. Fisher (1922)
  5. Lehmann & Casella, eq. (2.5.16), Lemma 5.3, p.116.