Kolmogorov-Smirnov test: vad det är och hur det används i statistik
Inom statistik är parametriska och icke-parametriska test välkända och används. Ett allmänt använt icke-parametriskt test är Kolmogorov-Smirnov-testet., vilket gör att vi kan verifiera om urvalspoängen följer en normalfördelning eller inte.
Den tillhör gruppen av så kallade godhetstester. I den här artikeln kommer vi att känna till dess egenskaper, vad det är till för och hur det används.
- Relaterad artikel: "Chi-kvadrattest (χ²): vad det är och hur det används i statistik"
icke-parametriska tester
Kolmogorov-Smirnov-testet är en typ av icke-parametriskt test. Icke-parametriska tester (även kallade gratis distribution) används i slutsatsstatistik och har följande egenskaper:
- De föreslår hypoteser om god passform, oberoende...
- Mätnivån för variablerna är låg (ordinal).
- De har inte överdrivna restriktioner.
- De är tillämpliga på små prover.
- De är robusta.
Kolmogorov-Smirnov test: egenskaper
Kolmogórov-Smirnov-testet är ett av dess egna som tillhör statistik, specifikt till slutsatsstatistik. Inferentiell statistik syftar till att extrahera information om populationer.
Det är en passformstest, det vill säga den används för att verifiera om poängen vi har fått från urvalet följer en normalfördelning eller inte. Det vill säga, det gör det möjligt att mäta graden av överensstämmelse mellan fördelningen av en datamängd och en specifik teoretisk fördelning. Dess syfte är att indikera om data kommer från en population som har den specificerade teoretiska fördelningen, det vill säga Med andra ord, vad den gör är att testa om observationerna rimligen kan komma från fördelningen specificerad.
Kolmogorov-Smirnov-testet tar upp följande fråga: Kommer urvalsobservationerna från någon hypotesfördelning?
Nollhypotes och alternativhypotes
Som ett passande test svarar det på frågan: "passar den (empiriska) urvalsfördelningen med den (teoretiska) populationsfördelningen?". I detta fall, nollhypotesen (H0) kommer att fastställa att den empiriska fördelningen liknar den teoretiska (Nollhypotesen är den som inte har försökt förkastas.) Med andra ord kommer nollhypotesen att fastställa att den observerade frekvensfördelningen överensstämmer med den teoretiska fördelningen (och därför passar bra).
Däremot kommer den alternativa hypotesen (H1) att ange att den observerade frekvensfördelningen inte överensstämmer med den teoretiska fördelningen (dålig passform). Liksom i andra hypoteskontrasttester kommer symbolen α (alfa) att indikera testets signifikansnivå.
- Du kanske är intresserad av: "Pearsons korrelationskoefficient: vad det är och hur man använder det"
Hur beräknas det?
Resultatet av Kolmogorov-Smirnov-testet representeras av bokstaven Z. Z beräknas från den största skillnaden (i absolut värde) mellan de teoretiska och observerade (empiriska) kumulativa fördelningsfunktionerna.
Antaganden
För att tillämpa Kolmogorov-Smirnov-testet korrekt måste en rad antaganden göras. För det första testet förutsätter att parametrarna för testfördelningen har specificerats tidigare. Denna procedur uppskattar parametrarna från provet.
Å andra sidan, provmedelvärdet och standardavvikelsen är parametrarna för en normalfördelning, minimi- och maximivärdena för provet definierar intervallet för den enhetliga fördelningen, provmedelvärdet är parametern för Poisson-fördelningen och urvalsmedelvärdet är parametern för fördelningen exponentiell.
Kolmogorov-Smirnov-testets förmåga att upptäcka avvikelser från den antagna fördelningen kan minskas kraftigt. För att jämföra det med en normalfördelning med uppskattade parametrar, möjligheten att använda K-S Lilliefors test bör övervägas.
Ansökan
Kolmogorov-Smirnov-testet kan tillämpas på ett urval för att kontrollera om en variabel (till exempel akademiska betyg eller €-inkomst) är normalfördelad. Detta är ibland nödvändigt att veta, eftersom många parametriska test kräver att variablerna de använder följer en normalfördelning.
Fördelar
Några av fördelarna med Kolmogorov-Smirnov-testet är:
- Det är kraftfullare än chi-kvadrattestet (χ²) (också ett passformstest).
- Det är lätt att beräkna och använda och kräver ingen gruppering av data.
- Statistiken är oberoende av den förväntade frekvensfördelningen, den beror bara på urvalsstorleken.
Skillnader med parametriska tester
Parametriska tester, till skillnad från icke-parametriska tester som Kolmogorov-Smirnov-testet, har följande egenskaper:
- De gör hypoteser om parametrar.
- Variablernas mätningsnivå är åtminstone kvantitativ.
- Det finns ett antal antaganden som måste uppfyllas.
- De förlorar inte information.
- De har hög statistisk kraft.
Några exempel på parametriska tester skulle vara: t-testet för skillnad i medelvärde eller ANOVA.