At vinde videnskabsmessen betyder at skille sig ud fra konkurrencen.
Gør os ikke forkert, da det at skabe en fantastisk bagepulver vulkan kan vende et par hoveder. Men du er nødt til at gøre noget lidt mere robust end det, hvis du vil tage den øverste præmie, hvad enten det er på din skole eller til Google Science Fair.
Ud over at have et fornuftigt og veldesignet eksperiment er en af de vigtigste ting, når du prøver at drage en fast konklusion, at analysere dine resultater nøjagtigt. Selvom du måske ikke vil høre det - er det ikke de fleste favorit del af at gøre videnskab - det betyder at lave nogle grundlæggende statistikker for at se, om der er forskelle, du observerer statistisk signifikant eller muligvis bare på grund af tilfældigheder.
Bare rolig, men det er ikke rigtig svært at udføre statistiske tests, men det er en af de bedste måder at få dit projekt til at skille sig ud for dommerne.
Hvorfor bruge statistik
Hvis du vælger en variabel - for eksempel højde, stavningstestresultater eller antallet af velgroede frø - vil der altid være en variation ved en tilfældighed alene. Der er generelt en fordeling af resultater omkring en eller anden central værdi. Dette gør det lidt svært at virkelig
ved godt om en tilsyneladende forskel mellem to resultater faktisk er vigtig eller bare på grund af denne iboende variation. Det er det, du bruger statistikker til.Statistiske tests som t-test og Pearson's korrelationskoefficient giver dig værktøjerne til at adskille virkningerne af tilfældig chance fra ægte effekter ud over dem, der forventes tilfældigt. For eksempel, hvis du vil vide, om drenge er højere end piger, ville du ikke bare sammenligne gennemsnittene (mere om det på et øjeblik), du bliver nødt til at se på, hvordan forskellene inden for en gruppe sammenligner med forskellene mellem grupperne.
Grundlæggende statistiske foranstaltninger
For at bruge statistiske tests til dit videnskabsprojekt skal du først kende et par grundlæggende ting. Den første er ret enkel: begrebet "middel", som de fleste mennesker taler om, når de siger "gennemsnit". Dette er simpelthen summen af et sæt værdier divideret med antallet af værdier. Så hvis du har fem testresultater: 20, 13, 18, 22 og 16, er gennemsnittet:
\ begin {align} \ text {mean} & = μ = \ frac {20 + 13 + 18 + 22 + 16} {5} \\ & = 17.8 \ end {aligned}
Det andet vigtige koncept er standardafvigelse. Dette er et mål for spredningen af værdier omkring middelværdien, og det bruges som en del af mange statistiske tests. Formlen for standardafvigelse er:
σ = \ sqrt {\ frac {1} {N} \ sum (x_i - μ) ^ 2}
Dette ser måske skræmmende ud, men det er ret nemt at beregne: start med at beregne middelværdien μ, og træk derefter denne værdi fra hvert af de individuelle resultater ( xjeg i ligningen), inden svaret kvadreres. Opsummer nu alle disse individuelle værdier, divider med antallet af resultater (N), og tag endelig kvadratroden af svaret.
Test for en forskel: t-testen
Hvis du vil teste for en forskel i en bestemt variabel mellem to grupper - for eksempel er gennemsnitshøjden for drenge vs. piger eller testresultater for studerende, der har taget et recap-kursus vs. dem der ikke har - den t-test er en af de mest anvendte statistiske tests. Det antager, at dine data normalt distribueres (som en bjælkekurve - det vil sandsynligvis være, så du behøver ikke bekymre dig om dette for meget), at firkanterne for standardafvigelserne ("variansen") for hver gruppe er de samme, og at observationerne er uafhængige af hver Andet.
At udføre en t-test, du bruger formlen:
t = \ frac {μ_1 - μ_2} {\ sqrt {\ frac {s_p ^ 2} {n_1} + \ frac {s_p ^ 2} {n_2}}}
Nu skal du bare vide, hvad hvert symbol betyder. For det første μ symbolerne er midlerne til prøverne, n værdier er antallet af resultater i hver gruppe og ss værdier involverer standardafvigelserne for prøverne. Dette er lidt mere kompliceret og har en separat formel:
s_p ^ 2 = \ frac {(n_1 - 1) σ_1 ^ 2 + (n_2 - 1) σ_2 ^ 2} {n_1 + n_2 - 2}
Det er generelt lettere at beregne dette i stykker, begyndende med ss2 værdi, og læg derefter værdien i ligningen for t. Det sidste trin er at slå op på det resultat, du får t i en tabel (se Ressourcer) for det relevante signifikansniveau, som normalt er 0,95 (hvis du tester for en forskel i begge retninger, dvs. højere og lavere, så brug enten en tabel til "tosidet" test eller brug 0.975 værdi). Du skal kontrollere rækken for dit antal frihedsgrader (din samlede stikprøvestørrelse minus 2), og hvis din t værdi (ignorerer eventuelle minustegn) er højere end værdien i tabellen, har du fundet en signifikant forskel.
Det er selvfølgelig kun begyndelsen: Hvad gør du med resultatet, når du har fundet det? Den næste del af denne artikel vil gå i dybden med at fortolke dine resultater.