Handige tips

Significantieniveau in statistieken

Pin
Send
Share
Send
Send


taak. Voor de gebieden van de regio worden gegevens verstrekt voor 199X,
Regio nummerHet gemiddelde leefloon per hoofd van de bevolking per dag van een valide, roebel, xHet gemiddelde dagloon, roebel, in
178133
282148
387134
479154
589162
6106195
767139
888158
973152
1087162
1176159
12115173
Het is vereist:
1. Om een ​​lineaire vergelijking van gepaarde regressie y uit x te bouwen.
2. Bereken de lineaire correlatiecoëfficiënt en de gemiddelde benaderingsfout.
3. Beoordeel de statistische significantie van de regressie- en correlatieparameters.
4. Voer een loonvoorspelling y uit tegen een voorspellingswaarde van de gemiddelde kosten van levensonderhoud per hoofd van de bevolking x, wat neerkomt op 107% van het gemiddelde niveau.
5. Beoordeel de nauwkeurigheid van de voorspelling door de voorspellingsfout en het betrouwbaarheidsinterval te berekenen.

beslissing zoeken met behulp van een rekenmachine.
Met behulp van de grafische methode .
Deze methode wordt gebruikt om de vorm van communicatie tussen de bestudeerde economische indicatoren te visualiseren. Om dit te doen, wordt een grafiek geconstrueerd in een rechthoekig coördinatenstelsel, de individuele waarden van het effectieve attribuut Y worden uitgezet langs de ordinaatas en de individuele waarden van het factorattribuut X langs de abscisas.
De reeks punten van de effectieve en factortekens wordt genoemd correlatieveld.
Op basis van het correlatieveld kan men (voor de algemene populatie) veronderstellen dat de relatie tussen alle mogelijke waarden van X en Y lineair is.
De lineaire regressievergelijking heeft de vorm y = bx + a + ε
Hier is ε een willekeurige fout (afwijking, verstoring).
De redenen voor het bestaan ​​van een willekeurige fout:
1. Het niet opnemen in het regressiemodel van belangrijke verklarende variabelen,
2. Aggregatie van variabelen. De functie van totale consumptie is bijvoorbeeld een poging om het geheel van beslissingen van individuele personen over kosten te generaliseren. Dit is slechts een benadering van individuele relaties die verschillende parameters hebben.
3. Onjuiste beschrijving van de structuur van het model,
4. Onjuiste functionele specificatie,
5. Meetfouten.
Omdat de afwijkingen εik voor elke specifieke waarneming ben ik willekeurig en hun waarden in de steekproef zijn onbekend, en dan:
1) volgens waarnemingen xik en yik alleen schattingen van de parameters α en β kunnen worden verkregen
2) De schattingen van de parameters α en β van het regressiemodel zijn respectievelijk de waarden van a en b, die willekeurig van aard zijn, omdat match een willekeurig monster
Dan zal de geschatte regressievergelijking (opgebouwd uit voorbeeldgegevens) de vorm y = bx + a + ε hebben, waarbij eik - waargenomen waarden (schattingen) van fouten εik, a en b, respectievelijk schattingen van de parameters α en β van het regressiemodel, die moeten worden gevonden.
Gebruik de kleinste kwadratenmethode (kleinste kwadratenmethode) om de parameters α en β te schatten.
Het systeem van normale vergelijkingen.
Voor onze gegevens heeft het stelsel vergelijkingen de vorm
Uit de eerste vergelijking drukken we een uit en vervangen deze in de tweede vergelijking
We krijgen b = 0,92, a = 76,98
Regressievergelijking:
y = 0,92 x + 76,98
1. Parameters van de regressievergelijking.
Voorbeeldgemiddelden.



Voorbeeldverschillen:


Standaardafwijking


Correlatiecoëfficiënt
We berekenen de indicator voor de strakheid van communicatie. Een dergelijke indicator is een lineaire correlatiecoëfficiënt van het monster, die wordt berekend met de formule:

De lineaire correlatiecoëfficiënt neemt waarden van –1 tot +1.
De relatie tussen de symptomen kan zwak en sterk zijn (dichtbij). Hun criteria zijn ingedeeld op de Cheddock-schaal:
0.1 0 is een directe verbinding, anders is het een omgekeerde verbinding). In ons voorbeeld is de verbinding direct.
Elasticiteitscoëfficiënt.
De regressiecoëfficiënten (in voorbeeld b) zijn ongewenst voor het direct beoordelen van de invloed van factoren op een productief kenmerk in het geval dat er een verschil is in de meeteenheden van de effectieve indicator y en factorattribuut x.
Voor deze doeleinden worden elasticiteitscoëfficiënten en beta-coëfficiënten berekend. De elasticiteitscoëfficiënt wordt gevonden door de formule:


Het geeft aan hoeveel procent gemiddeld de effectieve eigenschap y verandert met een wijziging in de factor eigenschap x met 1%. Er wordt geen rekening gehouden met de mate van variabiliteit van factoren.
De elasticiteitscoëfficiënt is minder dan 1. Daarom, als het gemiddelde minimumloon per hoofd van de bevolking per dag met 1% verandert, zal het gemiddelde dagloon met minder dan 1% veranderen. Met andere woorden, het effect van het gemiddelde minimumloon per hoofd van de bevolking X op het gemiddelde dagloon Y is niet significant.
Beta-ratio toont welk deel van de waarde van zijn gemiddelde kwadratische afwijking de gemiddelde waarde van het productieve kenmerk zal veranderen wanneer het factorattribuut verandert met de waarde van zijn standaardafwijking met de waarde van de resterende onafhankelijke variabelen vastgesteld op een constant niveau:

ie een toename in x door de standaardafwijking van deze indicator zal leiden tot een toename van het gemiddelde dagelijkse gemiddelde loon Y met 0,721 standaardafwijkingen van deze indicator.
1.4. Benaderingsfout.
Laten we de kwaliteit van de regressievergelijking schatten met de fout van absolute benadering.


Omdat de fout minder dan 15% is, kan deze vergelijking worden gebruikt als regressie.
Bepalingscoëfficiënt.
Het kwadraat van de (meervoudige) correlatiecoëfficiënt wordt de bepalingscoëfficiënt genoemd, die de variatie in het productieve kenmerk weergeeft, verklaard door de variatie van het factorattribuut.
Meestal wordt de interpretatiecoëfficiënt geïnterpreteerd als een percentage.
R2 = 0,72 2 = 0,5199
dwz in 51,99% van de gevallen hebben veranderingen in het gemiddelde minimumloon per hoofd van de bevolking x geleid tot een wijziging van het gemiddelde dagloon y. Met andere woorden, de nauwkeurigheid van de selectie van de regressievergelijking is gemiddeld. De resterende 48,01% van de verandering in het gemiddelde dagloon Y wordt verklaard door factoren die in het model niet zijn meegenomen.

XYx 2y 2x o yy (x)(y i -y cp) 2(y-y (x)) 2(x i -x cp) 2| y - y x |: y
7813360841768910374148,77517,56248,757,510,1186
8214867242190412136152,4560,0619,8212,840,0301
8713475691795611658157,05473,06531,482,010,172
7915462412371612166149,693,0618,5743,340,028
8916279212624414418158,8939,069,6411,670,0192
106195112363802520670174,541540,56418,52416,840,1049
671394489193219313138,65280,560,1258345,340,0026
8815877442496413904157,975,060,00075,840,0002
7315253292310411096144,1714,0661,34158,340,0515
8716275692624414094157,0539,0624,462,010,0305
7615957762528112084146,9310,56145,791,840,0759
115173132252992919895182,83297,5696,55865,340,0568
102718698990729437716180818693280,251574,922012,920,6902

2. Evaluatie van de parameters van de regressievergelijking.
2.1. De betekenis van de correlatiecoëfficiënt.

Volgens de studententabel met significantieniveau α = 0,05 en vrijheidsgraden k = 10, vinden we tKreta:
tKreta = (10,0.05) = 1.812
waarbij m = 1 het aantal verklarende variabelen is.
Als tobs > tde kritiekedan wordt de verkregen waarde van de correlatiecoëfficiënt als significant beschouwd (de nulhypothese, die stelt dat de correlatiecoëfficiënt gelijk is aan nul, wordt verworpen).
Sinds tobs > tKreta, dan verwerpen we de hypothese van gelijkheid van 0 correlatiecoëfficiënt. Met andere woorden, de correlatiecoëfficiënt is statistisch significant.
In gepaarde lineaire regressie t 2 r = t 2 b en dan is het testen van de hypothesen over de significantie van de regressie- en correlatiecoëfficiënten equivalent aan het testen van de hypothese over de significantie van de lineaire regressievergelijking.

2.3. Analyse van de nauwkeurigheid van het bepalen van schattingen van regressiecoëfficiënten.
Een onpartijdige schatting van de variantie van storingen is:


S 2 Y = 157.4922 - onverklaarde variantie (een maat voor de spreiding van de afhankelijke variabele rond de regressielijn).

12.5496 - standaardschattingsfout (standaard regressiefout).
S een - standaardafwijking van een willekeurige variabele a.


Sb - standaardafwijking van willekeurige variabele b.


2.4. Betrouwbaarheidsintervallen voor de afhankelijke variabele.
Economische voorspellingen op basis van het geconstrueerde model gaan ervan uit dat reeds bestaande relaties van variabelen gedurende de doorlooptijd behouden blijven.
Om de afhankelijke variabele van een effectief kenmerk te voorspellen, is het noodzakelijk om de voorspellingswaarden van alle factoren in het model te kennen.
De voorspelde waarden van de factoren worden in het model vervangen en ontvangen puntvoorspellingsschattingen van de bestudeerde indicator.
(a + bx p ± ε)
waarin

We berekenen de grenzen van het interval waarin 95% van de mogelijke waarden van Y worden geconcentreerd met een onbeperkt aantal observaties en X p = 94

(76.98 + 0.92*94 ± 7.8288)
(155.67,171.33)
Met een waarschijnlijkheid van 95% kan worden gegarandeerd dat de waarden van Y met een onbeperkt aantal waarnemingen niet verder gaan dan de gevonden intervallen.
2.5. Hypothesetesten met betrekking tot de coëfficiënten van de lineaire regressievergelijking.
1) t-statistieken. Criterium van de student.
We verifiëren hypothese H0 over de gelijkheid van individuele regressiecoëfficiënten tot nul (met alternatief H1 niet gelijk) op het significantieniveau α = 0,05.
tKreta = (10,0.05) = 1.812

Sinds 3.2906> 1.812 wordt de statistische significantie van de regressiecoëfficiënt b bevestigd (we verwerpen de hypothese dat deze coëfficiënt nul is).


Sinds 3.1793> 1.812 wordt de statistische significantie van de regressiecoëfficiënt a bevestigd (we verwerpen de hypothese dat deze coëfficiënt nul is).
Vertrouwensinterval voor de coëfficiënten van de regressievergelijking.
We bepalen de betrouwbaarheidsintervallen van de regressiecoëfficiënten, die met een betrouwbaarheid van 95% als volgt zullen zijn:
(b - tKreta Sb, b + tKreta Sb)
(0.9204 - 1.812 • 0.2797, 0.9204 + 1.812 • 0.2797)
(0.4136,1.4273)
Met een waarschijnlijkheid van 95% kan worden gesteld dat de waarde van deze parameter in het gevonden interval ligt.
(a - t lang = SV> a)
(76.9765 - 1.812 • 24.2116, 76.9765 + 1.812 • 24.2116)
(33.1051,120.8478)
Met een waarschijnlijkheid van 95% kan worden gesteld dat de waarde van deze parameter in het gevonden interval ligt.
2) F-statistieken. Fisher-criterium.
De significantie van het regressiemodel wordt gecontroleerd met behulp van de Fisher F-test, waarvan de berekende waarde wordt gevonden als de verhouding van de variantie van de eerste reeks waarnemingen van de bestudeerde indicator en de onbevooroordeelde schatting van de variantie van de restsequentie voor dit model.
Als de berekende waarde met k1 = (m) en k2 = (n-m-1) vrijheidsgraden groter is dan de tabelwaarde voor een bepaald significantieniveau, wordt het model als significant beschouwd.

waarbij m het aantal factoren in het model is.
De statistische significantie van gepaarde lineaire regressie wordt geschat volgens het volgende algoritme:
1. Er is een nulhypothese dat de vergelijking als geheel statistisch niet significant is: H0: R2 = 0 op het significantieniveau α.
2. Bepaal vervolgens de werkelijke waarde van het F-criterium:


waar m = 1 voor gepaarde regressie.
3. De tabelwaarde wordt bepaald uit de Fisher-distributietabellen voor een bepaald significantieniveau, rekening houdend met het aantal vrijheidsgraden voor de totale som van vierkanten (grotere variantie) is 1 en het aantal vrijheidsgraden van de resterende som van vierkanten (kleinere variantie) voor lineaire regressie is n-2 .
4. Als de werkelijke waarde van het F-criterium kleiner is dan de tabel, zeggen ze dat er geen reden is om de nulhypothese te verwerpen.
Anders wordt de nulhypothese verworpen en wordt met waarschijnlijkheid (1-α) een alternatieve hypothese aanvaard over de statistische significantie van de vergelijking als geheel.
De tabelwaarde van het criterium met vrijheidsgraden k1 = 1 en k2 = 10, Fkp = 4,96
Omdat de werkelijke waarde F> Fkp is, is de bepalingscoëfficiënt statistisch significant (de gevonden schatting van de regressievergelijking is statistisch betrouwbaar).

definitie

Het niveau van statistische significantie (of statistisch significant resultaat) laat zien wat de waarschijnlijkheid is van een toevallig optreden van de bestudeerde indicatoren. De algemene statistische significantie van het fenomeen wordt uitgedrukt door de coëfficiënt p-waarde (p-niveau). In elk experiment of waarneming is het waarschijnlijk dat de verkregen gegevens te wijten zijn aan bemonsteringsfouten. Dit geldt vooral voor de sociologie.

Dat wil zeggen, een statistiek is statistisch significant, waarvan de kans op accidenteel optreden extreem klein is of extreem is. Extreem wordt in deze context beschouwd als de mate van afwijking van statistieken van de nulhypothese (een hypothese die wordt gecontroleerd op consistentie met de verkregen steekproefgegevens). In de wetenschappelijke praktijk wordt het significantieniveau gekozen vóór het verzamelen van gegevens en in de regel is de coëfficiënt 0,05 (5%). Voor systemen waar nauwkeurige waarden uiterst belangrijk zijn, kan deze indicator 0,01 (1%) of minder zijn.

anamnese

Het concept significantieniveau werd geïntroduceerd door de Britse statisticus en geneticus Ronald Fisher in 1925 toen hij een methode ontwikkelde voor het testen van statistische hypothesen. Bij het analyseren van een proces is er een zekere kans op bepaalde fenomenen. Moeilijkheden ontstaan ​​bij het werken met kleine (of niet voor de hand liggende) procentkansen die vallen onder het concept 'meetfout'.

Bij het werken met statistieken die niet specifiek genoeg zijn om te verifiëren, werden wetenschappers geconfronteerd met het probleem van de nulhypothese, die "interfereert" met kleine hoeveelheden. Fisher stelde voor dergelijke systemen voor om de waarschijnlijkheid van gebeurtenissen bij 5% (0,05) te bepalen als een handige selectieve schijf waarmee men de nulhypothese in de berekeningen kan verwerpen.

De introductie van een vaste coëfficiënt

In 1933 raden wetenschappers Jerzy Neumann en Egon Pearson in hun werk van tevoren aan (vóór gegevensverzameling) om een ​​bepaald niveau van betekenis vast te stellen. Voorbeelden van het gebruik van deze regels zijn duidelijk zichtbaar tijdens de verkiezingen. Stel dat er twee kandidaten zijn, waarvan er één erg populair is en de tweede weinig bekend is. Het is duidelijk dat de eerste kandidaat de verkiezing wint en de kansen van de tweede neigen naar nul. Ze streven ernaar - maar niet gelijk: er is altijd de kans op overmacht, sensationele informatie, onverwachte beslissingen die de voorspelde verkiezingsresultaten kunnen veranderen.

Neumann en Pearson waren het erover eens dat Fisher's voorgestelde significantieniveau van 0,05 (aangeduid met het symbool α) het handigst is. Fisher zelf verzette zich echter in 1956 tegen de fixatie van deze waarde. Hij geloofde dat het niveau van α moet worden vastgesteld in overeenstemming met specifieke omstandigheden. In de deeltjesfysica is dit bijvoorbeeld 0,01.

Significantie niveau van p-

De term p-waarde werd voor het eerst gebruikt in het werk van Brownley in 1960. P-niveau (p-waarde) is een indicator die omgekeerd evenredig is aan de waarheid van de resultaten. De hoogste p-waarde komt overeen met het laagste betrouwbaarheidsniveau in de steekproef van afhankelijkheid tussen de variabelen.

Deze waarde geeft de kans op fouten weer die verband houden met de interpretatie van de resultaten. Stel dat p-niveau = 0,05 (1/20). Het toont de waarschijnlijkheid van vijf procent dat de relatie tussen de variabelen in de steekproef slechts een willekeurig kenmerk van de steekproef is. Dat wil zeggen, als deze afhankelijkheid afwezig is, kan men bij herhaalde dergelijke experimenten gemiddeld in elke twintigste studie dezelfde of grotere afhankelijkheid tussen de variabelen verwachten. Vaak wordt het p-niveau beschouwd als de "acceptabele marge" van het foutniveau.

Trouwens, p-waarde weerspiegelt misschien niet de werkelijke relatie tussen de variabelen, maar toont alleen een bepaalde gemiddelde waarde binnen de veronderstellingen. In het bijzonder zal de uiteindelijke analyse van de gegevens ook afhangen van de geselecteerde waarden van deze coëfficiënt. Met een p-niveau = 0,05 zullen er enkele resultaten zijn en met een coëfficiënt van 0,01 andere.

Statistische hypothesen testen

Het niveau van statistische significantie is vooral belangrijk bij het testen van hypothesen. Wanneer u bijvoorbeeld een tweezijdige test berekent, wordt het afwijzingsgebied gelijk verdeeld aan beide uiteinden van de steekproefverdeling (ten opzichte van de nulcoördinaat) en wordt de waarheid van de gegevens berekend.

Stel dat bij het monitoren van een bepaald proces (fenomeen) de nieuwe statistische informatie kleine veranderingen ten opzichte van eerdere waarden aangeeft. Bovendien zijn de discrepanties in de resultaten klein, niet voor de hand liggend, maar belangrijk voor het onderzoek. Het dilemma doet zich voor bij de specialist: vinden er echt veranderingen plaats of zijn deze bemonsteringsfouten (onnauwkeurige metingen)?

In dit geval wordt de nulhypothese gebruikt of afgewezen (alles wordt toegeschreven aan een fout of de verandering in het systeem wordt herkend als een voldongen feit). Het proces van het oplossen van het probleem is gebaseerd op de verhouding van totale statistische significantie (p-waarde) en significantieniveau (α). Als het p-niveau -8 is, is dat niet ongewoon voor dit gebied.

effectiviteit

Houd er rekening mee dat de coëfficiënten α en p-waarde geen nauwkeurige kenmerken zijn. Ongeacht het significantieniveau in de statistieken van het bestudeerde fenomeen, het is geen onvoorwaardelijke basis voor het accepteren van de hypothese. Hoe kleiner bijvoorbeeld de waarde van α, hoe groter de kans dat de vastgestelde hypothese significant is. Er is echter een risico op fouten, wat de statistische kracht (significantie) van het onderzoek vermindert.

Onderzoekers die zich uitsluitend op statistisch significante resultaten concentreren, kunnen verkeerde conclusies trekken. Tegelijkertijd is het moeilijk om hun werk dubbel te controleren, omdat ze aannames gebruiken (die in feite de waarden van α en p-waarde zijn). Daarom wordt het altijd aanbevolen om, samen met de berekening van de statistische significantie, een andere indicator te bepalen - de grootte van het statistische effect. De grootte van een effect is een kwantitatieve maat voor de sterkte van een effect.

Statistische significantieniveaus en hypothesetests

Significantieniveau - dit is de kans dat we de verschillen significant vonden, terwijl ze eigenlijk willekeurig zijn.

Dus het significantieniveau behandelt waarschijnlijk.

Het significantieniveau geeft de mate van betrouwbaarheid van de onthulde verschillen tussen de monsters aan, d.w.z. laat zien hoeveel we kunnen vertrouwen dat er echt verschillen zijn.

Modern wetenschappelijk onderzoek vereist verplichte berekeningen van het niveau van statistische significantie van de resultaten.

Doorgaans gebruiken de toegepaste statistieken 3 significantieniveaus.

1e significantieniveau: p ≤ 0,05.

Dit is een significantieniveau van 5%. Tot 5% is de kans dat we ten onrechte hebben geconcludeerd dat de verschillen betrouwbaar zijn, terwijl ze eigenlijk onbetrouwbaar zijn. Het kan op een andere manier gezegd worden: we zijn slechts 95% zeker dat de verschillen echt groot zijn. In dit geval kunt u als volgt schrijven: P> 0,95. De algemene betekenis van het criterium blijft hetzelfde.

2. 2e significantieniveau: p ≤ 0,01.

Dit is een significantieniveau van 1%. De kans op een onjuiste conclusie dat de verschillen aanzienlijk zijn, is niet meer dan 1%. Het kan op een andere manier gezegd worden: we zijn 99% zeker dat de verschillen echt groot zijn. In dit geval kunt u als volgt schrijven: P> 0,99. Смысл останется тем же.

3. 3-й уровень значимости: р ≤ 0,001.

Это 0,1%-ный уровень значимости. Всего 0,1% составляет вероятность того, что мы сделали ошибочный вывод о том, что различия достоверны. Это — самый надёжный вариант вывода о достоверности различий. Можно сказать и по-другому: мы на 99,9% уверены в том, что различия действительно достоверны. In dit geval kunt u als volgt schrijven: P> 0.999. De betekenis blijft weer hetzelfde.

Het significantieniveau is de waarschijnlijkheid van een foutieve afwijzing (afwijzing) van een hypothese, terwijl het feitelijk waar is. Dit is een afwijzing van de nulhypothese Nee.

Het significantieniveau is een toelaatbare fout in onze verklaring, in onze conclusie.

Er zijn twee soorten fouten mogelijk: de eerste soort (α) en de tweede soort (β).

Een fout van de eerste soort - we verwierpen de nulhypothese, hoewel het waar is.

α is een fout van de eerste soort.

p ≤ 0,05, foutenpercentage α ≤ 0,05

De kans dat de juiste beslissing is genomen: 1 - α = 0,95 of 95%.

Significantieniveaus voor type I-fouten

1. α ≤ 0,05 - het laagste niveau

Het laagste niveau van belangrijkheid - hiermee kunt u de nulhypothese verwerpen, maar staat u nog steeds geen alternatief toe.

2. α ≤ 0,01 - een voldoende niveau

Voldoende niveau - hiermee kunt u de nulhypothese verwerpen en het alternatief accepteren.

G - criterium van tekens

T - Wilcoxon-test

U - Mann-Whitney-test.

Voor hen is de omgekeerde verhouding.

3. α ≤ 0.001 - het hoogste significantieniveau.

In de praktijk worden de verschillen als significant beschouwd bij p ≤ 0,05.

Voor een niet-gerichte statistische hypothese wordt een tweezijdig significantiecriterium gebruikt. Het is strenger, omdat het de verschillen in beide richtingen controleert: naar de nulhypothese en naar het alternatief. Daarom wordt er een significantiecriterium van 0,01 gebruikt.

Vermogen criterium - zijn vermogen om zelfs kleine verschillen op te sporen, indien aanwezig. Hoe krachtiger het criterium, hoe beter het de nulhypothese verwerpt en het alternatief bevestigt.

Hier verschijnt het concept: een tweede fout.

Type II-fout - Dit is de acceptatie van de nulhypothese, hoewel het niet waar is.

Vermogen criterium: 1 - β

Hoe krachtiger het criterium, hoe aantrekkelijker het is voor de onderzoeker. Hij verwerpt beter de nulhypothese.

Waarom zijn energiezuinige criteria aantrekkelijk?

Voordelen van low-power criteria:

  • verlichten
  • Breed bereik in relatie tot een breed scala aan gegevens
  • Toepasbaarheid op ongelijke steekproefgroottes.
  • Meer informatieve inhoud.

Het populairste statistische criterium is de T-test van Student. Maar in slechts 30% van de artikelen wordt het correct gebruikt, en in 70% - ten onrechte, omdat controleer de selectie niet op normaliteit van distributie.

De tweede meest populaire is de chikwadraat-test, χ2

Pin
Send
Share
Send
Send