Statistikk i forskning på psykologiske variabler

I appendiksen eller mer vanlig kalt vedlegget i Passer & Smiths (2004) grunnbok i Psykologi, finnes en liten oversikt over begrepene som benyttes ved statistiske prosedyrer i forskning innenfor faget psykologi. Ifølge dem trenger man ikke kunne vanskelig matematikk for å gjøre statistiske beregninger. Det er nok å kunne addisjon (pluss), subtraksjon (minus), multiplikasjon (gange) og dividering (dele). 

Deskriptiv statistikk

Det er vanskelig å trekke fornuftige konklusjoner bare fra skårene som finnes hos enkelte individer. Deskriptiv statistikk beskriver de karakteristiske skårene som finnes innenfor et utvalg med flere. Dette kalles også for distribusjon (Passer & Smith, 2004).

Frekvensdistribusjon

For det første kan man presentere skårenes frekvensdistribusjon, eller også kalt, hyppighetsfordeling. For eksempel av skårene på selvtillit i en gruppe med 50 personer. 

Skårer på selvtillit

Hyppighet

0 - 2

1

3 - 5

1

6 – 8

4

9 – 11

3

12 – 14

8

15 – 17

11

18 – 20

9

21 – 23

6

24 – 26

4

27 – 29

1

30 - 32

2

Tabellen her viser at 1 person skårer mellom 0 – 2. Det er også 1 person som skårer mellom 3 – 5, og 4 personer som skårer mellom 6 – 8, osv. Det benyttes intervaller på tre skårer i hver gruppe, fra 0-2, 3 – 5, 6 – 8, osv. Man kunne også fått en mer detaljert beskrivelse av hyppigheten ved å benytte intervaller på to skårer, eller en skåre. Hyppighetsdistribusjonen gir beskrivelser av bestemte karakteristikker ved dataene som at flertallet av skårene er samlet i en gruppe, eller fordelt likt blant flere grupper. I dette eksempelet skårer noen få lavt med 0 – 2 poeng eller høyt med 30 – 32, mens flertallet skårer midt imellom med 15 – 17 poeng.

Skårenes hyppighetsdistribusjon kan også presenteres som en graf i et histogram:










Sentral tendens

Sentral tendens beskriver distribusjonen (fordelingen) av skårer ved hjelp av et tall som er typisk for alle skårene i utvalget. Det finnes tre forskjellige mål som brukes for å vise sentral tendens; Måte, Gjennomsnitt og Median (På engelsk; Mode, Mean og Median). For eksempel kan man finne frem til et enkelt tall som viser den typiske lønnen til alle ansatte på en arbeidsplass.

Årslønn for 10 ansatte

Ansatte

Årslønn (X)

          Pettersen Arve

  Kr 2 500 000

         Johansen Kari

  Kr 2 500 000

         Larsen Lars

  Kr    200 000

         Wilhelmsen Petter

  Kr    195 000

         Andersen Rafael

  Kr    190 000

          Jespersen Svein

  Kr    180 000

         Olaisen Rune

  Kr    175 000

          Jørgensen Jan 

  Kr    170 000

          Trumph Donald

  Kr    165 000

          Rosengren Fiona

  Kr    160 000


      N = 10                                                                                          ∑ X = 5 535 000

(N = antall. ∑ = summen av. X = her lønnsutbetaling).

Måten (Mode): Skåren som oppstår oftest: Kr 2 500 000

«Måten» på kr 2 500 000 i dette eksempelet ligger langt utenfor de vanligste skårene distribusjonen av lønnsutbetalingene. Måten er derfor lite representativ for lønnsutbetalingene til alle de 10 ansatte på denne arbeidsplassen.

Gjennomsnittet (Mean) regnes ut ved å summere alle lønningene og dele det på antall ansatte i utvalget fra arbeidsplassen. Det mest brukte målet på sentral tendens er gjennomsnittsskåren av alle lønningene i utvalget. I tilfeller som her når noen lønnsutbetalinger er veldig høye, mens andre lønnsutbetalinger er veldig lave, er gjennomsnittslønningen heller ikke representativ for alle lønningene på arbeidsplassen.

Gjennomsnittet =  =  = Kr 553 500


Median: Lønnsutbetalingen som man finner i midten av alle lønnsutbetalingene når de rangeres i rekkefølge fra høyest til lavest. Det vil si at halvparten av lønningene ligger over og resterende halvpart ligger under den Mediane lønnsutbetalingen. Kr 185 000 som ligger mellom den 5. lønnsbetalingen på Kr 190 000 og den 6. lønnsutbetalingen på Kr 180 000 er her Medianen av lønnsutbetalingene. Det positive med medianen er at skåren ikke påvirkes av ekstremt høye eller ekstremt lave skårer. Medianen er den mest representative skåren for alles lønnsutbetalinger i dette utvalget hvor lønnsforskjellene er store. Det negative er at medianen ikke viser om noen av de ansatte får en lønnsøkning. En gjennomsnittsskåre vil kunne reflektere når arbeidsplassen gir en lønnsøkning til noen av sine ansatte.

Variabiliteten

Ifølge Passer & Smith (2004) gir sentral tendens oss et enkelt tall som viser den typiske distribusjonen av skårene i et utvalg. For å få vite mer om spredningen av skårene i et utvalg beregnes variabiliteten. Variabiliteten viser størrelsen på spredningen av skårene i en distribusjon. Variabiliteten viser om flesteparten av skårene ligger i nærheten av gjennomsnittsskåren, eller om de varierer de veldig.

Rekkevidden viser differansen mellom den høyeste og den laveste skåren i en distribusjon (Passer & Smith, 2004). Det er den enkleste utregningsmåten på variabiliteten, men den minst informative om variabiliteten blant skårenes distribusjon. Rekkevidden i lønnsutbetalinger på arbeidsplassen i eksempelet her er Kr 2 500 000 - kr 160 000 = 2 340 000. Det ville være mer nyttig å vite hvor mye hver skåre gjennomsnittlig varierer eller avviker fra gjennomsnittskåren (Mean på engelsk) av hele distribusjonen.

Beregning av variansen og standard avviket for distribusjonen av skårer i to utvalg (A og B)

 

Distribusjon   utvalg A

 

 

Distribusjon utvalg B

 

(Skårer)

(Skårer)

12

+2

4

18

+8

64

12

+2

4

18

+8

64

11

+1

1

15

+5

25

11

+1

1

15

+5

25

10

0

0

10

0

0

10

0

0

10

0

0

9

-1

1

5

-5

25

9

-1

1

5

-5

25

8

-2

4

2

-8

64

8

-2

4

2

-8

64

∑X = 100


          N = 10                                                                                       N = 10

          M = 10.00                                                                                M = 10.00

 )

                                      

SD (Standardavvik) =  = 1.414                                 SD =  = 5.967

Først finner man avviksskårene ved å regne ut differansen mellom hver skåre og gjennomsnittsskåren (x= X - M). Summen av avviksskårene i alle typer distribusjoner vil alltid bli 0. For å unngå dette må man fjerne alle pluss og minustegnene som finnes foran tallene som kansellerer hverandre ut. Det gjør man ved å finne kvadratroten av hver skåre (tallet ganget med seg selv/skåren opphøyd i 2), og så oppsummere alle avviksskårene. Summen av avviksskårene for utvalg A = 20, og summen av avviksskårene for utvalg B = 356. Til slutt deles summen av avviksskårene med 10 (antallet i hver distribusjon/utvalg) for å finne variansen (gjennomsnittlig avviksskåre). 

Standard avvik (Standard Deviation)

Ifølge Passer og Smith (2004) er den vanligste måten å finne variabiliteten på og regne ut standard avviket. Det gjør man ved å regne kvadratroten av variansen. På den måten finner man tilbake til de opprinnelige tallene som man hadde før man fjernet pluss og minus tegnene ved å opphøye tallene i 2. Standardavviket fra gjennomsnittsskåren i gruppe B (5.967) er mye høyere enn standardavviket fra gjennomsnittsskåren i gruppe A (1.414). 

Normalkurven

Ifølge Passer & Smith (2004) er normalkurven en symmetrisk bjelleformet kurve som representerer en teoretisk distribusjon av skårer i populasjonen. I normalkurven faller femti prosent av tilfellene på hver sin side av gjennomsnittet (Mean). Måten (Mode) og Medianen (Median) har samme verdi som gjennomsnittet. Når man beveger seg vekk fra midten mot høyre eller venstre i normalkurven synker frekvensen av skårene. Skårene på en god del forskjellige variabler i populasjonen som vekt, høyde, IQ, angst, m.fl., fordeler seg omtrent slik som i normalkurven. Altså er det bare noen få som har veldig høy eller veldig lav IQ, en god del har ganske høy eller ganske lav IQ, mens flertallet ligger i nærheten av gjennomsnittskåren på IQ.


Normalkurven kan benyttes til å vise standardavvikene på skårene i et utvalg eller en populasjon. Ca. 68 % (34% + 34 %) av IQ-skårene i en befolkning faller innenfor et standardavvik på -1 eller +1 fra gjennomsnittet. Ca. 95 % (34 % + 34 % + 13.5 % +13.5 %) av befolkningens IQ-skårer faller innenfor et standardavvik på -2 og +2. Ca. 99.7 % (34 %+ 34 % + 13.5 % + 13.5 % + 2 % + 2 %) av befolkningens IQ skårer faller innenfor et standardavvik på -3 og +3. Resterende 1 % av befolkningens IQ-skårer er så høye eller så lave av de faller utenfor et standard avvik på -3 og +3. Det vil si at sannsynligheten for at en person som er tilfeldig plukket ut fra befolkningen vil ha en IQ som er høyere enn 145 er 1 % (Noen unøyaktigheter i normalkurven på bildet her ovenfor siden den viser 99.7 % i det grå feltet bak kurven og 99.9 % under kurven. Det er nok fordi alt over og under sannsynligvis er tall innenfor tegnet ∞ som betyr uendelige muligheter som i universets uendelighet og det evige liv). 

Finne forklaringer på en atferds totale varians gjennom eksperimenter

Gjennom å benytte forskjellige forskningsmetoder som tar utgangspunkt i antakelser om at variablene som det forskes på er fordelt som i normalkurven, kan man komme med påstander om sannsynligheter for at noe kommer til å skje (Passer & Smith, 2004). Disse metodene analyserer sammenhenger mellom variabler og trekker slutninger om hvordan disse sammenhengene kan forklares.

Atferd varierer mellom individer og for samme individ over tid. Det kan være et resultat av at individer presterer på forskjellig nivå, og et individs prestasjoner kan bli bedre over tid. Som et eksempel kan man undersøke om antallet tilskuere til en nødssituasjon påvirker hvor fort man reagerer for å hjelpe til (Passer & Smith, 2004). Antallet tilskuere er den uavhengige variabelen og tiden det tar før man hjelper til er den avhengige variabelen. Deltakere i undersøkelsen blir tilfeldig fordelt til grupper med en, to, tre og fire personer. Resultatene på undersøkelsen viste at tilskuere som var alene responderte raskest og tilskuere i grupper med fire brukte lengst tid på å reagere. Det viste seg også at det fantes individuelle forskjeller innenfor hver gruppe, slik at det varierte hvor raskt tilskuerne som var alene reagerte på nødssituasjonen for å hjelpe til. Denne variasjonen kan være et resultat av andre ting som bedre humør, personlighet, osv. Den totale mengden variasjoner i hvor fort personene reagerte for å hjelpe til deles inn i to komponenter; 1. Størrelsen på variansen som er et resultat av den uavhengige variabelen som manipuleres som å være alene eller i grupper med andre tilskuere. 2. Størrelsen på variansen som er et resultat av tilfeldige, umålbare og ukontrollerte faktorer som humør, personlighetsforskjeller, o.l.

En statistisk analyse viste at 20 % av den totale variansen i hastigheten på tilskuernes reaksjoner for å hjelpe til var et resultat av den uavhengige variabelen antall tilskuere. De resterende 80 % av variansen i hastigheten på reaksjoner for å hjelpe til var et resultat av andre tilfeldige faktorer som man ikke hadde kontroll over i eksperimentet som humør, kjedsomhet, personlighet, kjønn, nødssituasjonens natur, osv. Disse faktorene fører til det man kaller for feilvariansen. Det kan gjøres flere undersøkelser hvor den delen av variansen som er et resultat av kontrollerte uavhengige variabler også inkluderer variabler som humør og kjønn osv., slik at disse inkluderes i den totale variansen. Man vil da kunne øke prosentandelen av kjente uavhengige variabler som man da vet forklarer den totale variansen av hjelpeatferd. Med andre ord kan man altså finne ut hvilke variabler som forklarer eller predikerer/forutsier andre variabler som hjelpeatferd ved å isolere eller kontrollere disse variablene som fører til varians i eksperimenter. Jo viktigere en variabel er for prediksjonen av atferden som undersøkes, jo større andel av den totale variansen vil denne variabelens varians dekke. Målet er å stadig oppdage nye variabler som kan tas med i betraktning for sin andel av den totale variansen av menneskers atferd (Passer & Smith, 2004).

Finne forklaringer på en atferds totale varians i korrelasjonsundersøkelser

Varians gjelder ikke bare i eksperimenter, men også i korrelasjonsstudier (Passer & Smith, 2004). Til forskjell fra eksperimenters manipulering av uavhengige variabler for å observere påvirkningen av avhengige variabler, måler korrelasjonsstudier sammenhenger mellom naturlig oppståtte forandringer i en variabel og forandringer av en annen variabel. For eksempel kan man undersøke om det finnes en sammenheng mellom selvtillit og depresjon i et utvalg på 200 personer. Tester viser at skårer på selvtillit og depresjon varierer blant utvalgets 200 deltakere. Noen har bedre selvtillit enn andre og noen er mer deprimerte enn andre. En korrelasjonsundersøkelse viser om det finnes en sammenheng mellom variansen i skårene på selvtillit og variansen i skårene på depresjon. Korrelasjonsundersøkelser kan vise om en økning eller nedgang i skårene på selvtillit (variabel X) blant de to 200 deltakerne i utvalget, (som også innebærer at deltakernes skårer beveger seg lengre vekk fra gjennomsnittsskåren på variabel X), også samtidig viser en økning eller nedgang i skårene på depresjon (variabel Y) blant de 200 deltakerne, (som også innebærer at skårene beveger seg lengre vekk fra gjennomsnittskåren på variabel Y), og om sammenhengene mellom en økning eller nedgang i skårene blant deltakerne skjer på en systematisk måte. 

Korrelasjonskoeffisienten

Sammenhenger mellom variabler kan gå i forskjellig retning (positiv eller negativ) og ha forskjellig styrke. Som eksempel benytter Passer & Smith (2004) et utvalg på seks personer som skårer på to variabler (X og Y). 

 

Gruppe A

Gruppe B

Gruppe C

Gruppe D

Gruppe E

Deltakere

X

Y

X

Y

X

Y

X

Y

X

Y

1

1

2

1

4

1

5

1

6

1

12

2

2

4

2

5

2

8

2

8

2

10

3

3

6

3

2

3

6

3

10

3

8

4

4

8

4

10

4

2

4

4

4

6

5

5

10

5

6

5

6

5

2

5

4

6

6

12

6

8

6

7

6

1

6

2

N = 6

r = + 1.00

r = + .58

r = 00

r = - .75

r = - 1.00


Første kolonnen viser antallet deltakere, og er det samme i alle gruppene. Skårene på X variabelen er også de samme for alle gruppene fra A til E. I gruppe A går sammenhengen mellom skårene på variablene X og Y i positiv retning. Det vil si at når skårene på X- variablene øker, så øker også skårene på Y-variablene. I gruppe E går sammenhengen mellom skårene på variablene X og Y i negativ retning. Det vil si at når skårene på X-variablene synker, så synker også skårene på Y-variablene. I gruppe C finnes det ingen tydelig sammenheng mellom variablene X og Y. Det vil si at det ikke finnes noen korrelasjon mellom variablene X og Y. Når skårene på X variablene endres, kan ikke dette assosieres med noen systematisk endring på Y variablene. Mana kan også se hvordan styrken på korrelasjonene er forskjellig mellom gruppe A og gruppe B. I gruppe A finnes en perfekt korrelasjon mellom variablene X og Y. Når skårene på X-variablene øker med en konstant mengde (her med 1), øker også skårene på Y-variablene på en konstant måte (her med 2). I gruppe B øker skårene på X-variablene også i takt med en økning i skårene på Y-variablene, men ikke på en like konsistent måte som i gruppe A. For eksempel har deltaker 3 i gruppe B en høyere skåre på X-variabelen enn deltaker 2, men likevel en lavere skåre på Y-variabelen enn deltaker 2. På samme måten finnes en perfekt negativ korrelasjon i gruppe E. Når skårene på X – variabelen øker med en konstant mengde (her 1), så synker skårene på Y – variabelen med en kontant mengde (her 2). I gruppe D er den negative relasjonen mellom X og Y ikke like konsistent og dermed er korrelasjonen mellom dem ikke like sterke som i gruppe E (Passer & Smith, 2004).

Pearson produkt-moment korrelasjonskoeffisienten (r) er et statistisk tall som viser retningen (positiv eller negativ) og styrken på sammenhengen mellom to variabler. Korrelasjonskoeffisienten kan rangeres i størrelsen – 1.00 til + 1.00. Gruppe A i eksempelet ovenfor viser en korrelasjonskoeffisient på r = + 1.00. Det viser en perfekt positiv sammenheng mellom X og Y variablene. Gruppe E viser en korrelasjonskoeffisient på r = - 1.00. Det viser en perfekt negativ sammenheng mellom X og Y variablene. Når korrelasjonen ligger i nærheten av 0.00 indikerer det manglende systematisk sammenheng mellom variablene som i gruppe C. I virkelige forskningsstudier er det sjeldent at man finner perfekt korrelasjon på + 1.00 og – 1.00. Det er mer typisk ved forskning på psykologiske variabler at korrelasjonen er + .58 som i gruppe B, eller - . 75 som i gruppe D. Det er størrelsen på korrelasjonskoeffisienten som er av betydning for styrken på korrelasjonen og ikke om sammenhengene går i positiv eller negativ retning. X og Y variablene korrelerer altså sterkere i gruppe D (r = - .75) enn i gruppe B (r = + .58) selv om korrelasjonen er negativ i gruppe D.

Tolkning av korrelasjonskoeffisienten

Korrelasjon på r = + .58 betyr ikke at variablene korrelerer med 58 prosent (Passer & Smith, 2004). Når man tar kvadratroten av korrelasjonskoeffisienten () viser det størrelsen på variansen som variablene X og Y deler eller har til felles. Eller sagt på en annen måte, kvadratroten av korrelasjonskoeffisienten  forteller oss hvor stor del av variansen i skårer på X-variabelen som har en sammenheng med variansen i skårer på Y-variabelen. Som et eksempel får man en korrelasjon på + .50 mellom skårene på en ferdighetstest om mekanikk og karakterer på et ingeniørkurs på universitetet. Kvadratroten av korrelasjonskoeffisienten () forteller oss at 25 prosent av den totale variansen kommer som resultat av forskjeller i skårer på ferdighetstestene om mekanikk. Jo høyere korrelasjonen mellom to variabler er, jo mer av variansen har de til felles. Når korrelasjonen mellom to variabler er perfekt, deler de hele den totale variansen med hverandre.

Korrelasjonsstudier kan ikke konkludere med at den ene variabelen ble forårsaket av den andre. Vi vet bare at det finnes en statistisk sammenheng mellom variablene. Det er mulig at X er årsaken til Y, eller at Y er årsaken til X, eller at begge er forårsaket av en tredjevariabel.

Korrelasjon og prediksjon

Hvis vi vet at to variabler korrelerer, og vi vet et individs skåre på en av disse variablene, kan vi predikere individets skåre på den andre variabelen (Passer & Smith, 2004). Jo høyere korrelasjonen er, jo mer nøyaktig kan prediksjonen gjøres. Hvis korrelasjonen mellom variablene er perfekt, slik at variansen overlapper helt, kan vi gjøre presise prediksjoner. I gruppe A ovenfor kan man ved å vite en persons skåre på X, nøyaktig predikere at Y = 2X, eller i motsatt fall hvis vi vet en persons skåre på Y, kan vi predikere at skåren på X = .5Y. Ved statistiske prediksjoner som baserer seg på korrelasjon, tar vi i bruk systematiske relasjoner mellom flere variabler for å predikere individuelle tilfeller. Organisasjonspsykologer kan for eksempel være til hjelp når man skal finne riktig ansatt til en stilling på en arbeidsplass. Jo høyere en predikatorvariabel (skårer på en ferdighetstest) korrelerer med kriterievariabelen (arbeidsprestasjoner), jo mer nøyaktig kan man velge ut riktig kandidat (Passer & Smith, 2004).

Faktoranalyse

Innenfor en enkelt undersøkelse, kan forskere måle mange variabler og undersøke korrelasjoner mellom dem. For eksempel kan man ønske å bestemme hvilke forskjellige mentale evner mennesket har. Finnes det dusinvis av forskjellige mentale evner, eller bare noen få grunnleggende evner som påvirker prestasjoner på tvers av forskjellige oppgaver? I så fall, hva er disse evnenes natur? (Passer & Smith, 2004). For å fine svar på slike spørsmål kan man dele ut førti forskjellige prestasjonstester til hundre deltakere og så regne ut korrelasjonene mellom alle deltakernes skårer på testene. Hvis noen av skårene på testene korrelerer – det vil si at noen av skårene på prestasjonstestene viser seg i «klynger» - måler sannsynligvis disse testene de samme underliggende eller grunnleggende mentale evnene. Videre hvis skårene på testene innenfor en klynge viser høy korrelasjon med hverandre, men ikke med testene innenfor andre klynger, reflekterer sannsynligvis disse klyngene forskjellige mentale egenskaper. Forskeren håper på å bestemme antallet testklynger (med forskjellige mentale evner) og benytte denne informasjonen til å slutte seg til hva som kjennetegner de underliggende mentale evnene (Passer & Smith, 2004).

Når skårene for alle 40 testene er blitt korrelert med hverandre (N= antall tester eller variabler), ender man for eksempel opp med 780 korrelasjoner. Det er regnet ut slik: [N x (N – 1)] / 2, eller [40 X 39] / 2 (Passer & Smith, 2004). Med så mange korrelasjoner er det vanskelig å skulle bestemme hvilke av testene som hører til samme klynge bare ved hjelp av det blotte øye. En statistisk test kalt faktoranalyse reduserer et stort antall korrelasjoner mellom mange måleenheter slik at man kommer frem til et mindre antall klynger, hvor hver klynge inneholder variabler som korrelerer høyt med hverandre (Passer & Smith, 2004). Dataprogrammer kan utføre faktoranalyser i løpet av noen få sekunder hvor det analyseres mønstre med korrelasjoner. Begrepet faktor refererer til den underliggende karakteristikken som bidrar til at variablene innenfor hver klynge korrelerer. Faktoranalyse kan bare identifisere klyngene, men analysen kan ikke gi svar på hva testene i hver klynge måler av underliggende karakteristikker. Det blir opp til psykologen eller forskeren å undersøke testenes natur i hver klynge og hva de underliggende faktorene er. En korrelasjonsmatrise er en tabell som viser hvilke variabler som korrelerer med hverandre og hvor høy korrelasjonene er (Passer & Smith, 2004). De matematiske utregningene som gjøres ved faktoranalyse skriver jeg ikke om her.

Slutningsstatistikk og Hypotesetesting

Forskere har sjeldent tilgang til hele populasjonen man er interessert i å gjøre forskning på, og må nøye seg med å studere et relativt lite utvalg med deltakere. Av en eller annen grunn kan det kanskje være slik at deltakerne som ble undersøkt ikke er representative for hele populasjonen som de ble trukket fra, til tross for bruk av metoder for tilfeldig fordeling til utvalget (Passer & Smith, 2004).

Slutningsstatistikk forteller oss hvor sikre konklusjoner eller slutninger vi kan trekke om en populasjon basert på funnene vi har fått fra et utvalg (Passer & Smith, 2004). Hvis vi i et eksperiment observerer at det finnes forskjeller mellom en eksperimentgruppe og en kontrollgruppe, eller hvis vi i en korrelasjonsundersøkelse finner ut at to variabler korrelerer, benyttes slutningsstatistikk for å bestemme sannsynligheten for at disse resultatene oppstod som en tilfeldighet alene og derfor ikke viser en ekte forskjell i populasjonen som utvalget ble trukket fra. Begrepet statistisk signifikans betyr at det er usannsynlig at funnene ble gjort ved en ren tilfeldighet. Forskere anser et resultat som statistisk signifikant bare hvis det kunne ha oppstått som en tilfeldighet mindre enn fem av hundre ganger. Logikken ved testing av statistisk signifikant kan sees i relasjon til normalkurven som er beskrevet ovenfor. Skårene på IQ i normalkurven har et gjennomsnitt på 100 og standard avvik på 15. Sannsynligheten for at en person har IQ på 145 kan beregnes ved å se på hvor stor andel av personer som skårer 3 standardavvik over gjennomsnittet. Omtrent en tiendedel av en prosent, eller en av tusen personer med IQ på 145 vil kunne bli plukket ut ved en ren tilfeldighet (Passer & Smith, 2004).

Passer & Smith (2004) benytter et eksempel hvor man undersøker hvordan takling av stress påvirker skoleprestasjoner blant studenter som har eksamensangst. Det settes frem en hypotese om at hvis man klarer å få kontroll over eksamensangsten vil det føre til bedre prestasjoner. 40 studenter som skåret høyt på eksamensangst ble tilfeldig plukket ut og fordelt på en eksperimentgruppe (20 deltakere) som deltok på et stressmestringsprogram, og en kontrollgruppe (20 deltakere) som ikke deltok på et slikt stressmestringsprogram. Utenom det deltok alle studenten i samme undervisning. Ved slutten av skoleåret ble gjennomsnittskarakterene deres sammenlignet (fra F/0.0 – A/4.0). Det ble funnet at studentene i eksperimentgruppen fikk en gjennomsnittskarakter på 3.17 og studentene i kontrollgruppen fikk gjennomsnittskarakteren 2.61. Forskjellen i karakterene deres var altså 0.56. Hvordan kan man vite om disse forskjellene reflekterer forskjeller som finnes i hele populasjonen med engstelige som deltar på stressmestringsprogrammer og andre som ikke deltar på slike programmer? Ved å gjenta eksperimentet mange ganger vil vi få en mengde med skårer som viser oss hvordan fordelingen av forskjellene er spredt rundt et gjennomsnitt. Det vil vise oss om fordelingen av skårer er i følge en normalfordeling innenfor normalkurven. Da kan vi bestemme hvor stor sannsynligheten er for at vi ved en ren tilfeldighet oppnådde forskjeller av en viss størrelse i forhold til en gjennomsnittsskåre. For å kunne gjøre det må vi først vite gjennomsnittsskåren og standardavviket i fordelingen av forskjellene i skårer. Som vi har sett kan vi gjøre disse beregningene etter å ha gjort eksperimentet mange ganger for å få flere skårer (Passer & Smith, 2004). Ifølge Passer og Smith (2004) kan man heller estimere disse verdiene bare ved å utføre et enkelt eksperiment. For å gjøre det benyttes en tilnærming innenfor statistisk analyse som kalles testing av nullhypotesen. Nullhypotesen er at observerte forskjeller mellom utvalgene oppstår som en ren tilfeldighet. Man tar utgangspunkt i at nullhypotesen er sann og at det derfor ikke finnes noen virkelig karakterforskjeller i populasjonen mellom engstelige som har gått på stressmestringsprogram og de som ikke har det. Hvis eksperimentet ble gjentatt flere ganger kunne vi forvente at gjennomsnittet av fordelingen av forskjeller i skårer ville være 0. (Standardavviket regnes ut på den måten som er beskrevet ovenfor og gjentas ikke her). Vi antar at standardavviket i gjennomsnittlig karakterfordelinger i disse utvalgene er .25. Karakterforskjellene i utvalget på 0.56 er litt mer enn 2 standardavvik over gjennomsnittet (0) av fordelingen i nullhypotesen. Det vi vet om normalkurven er at mer enn 95 % av tilfellene befinner seg innenfor kurvens område mellom -2 standardavvik og +2 standardavvik. Hvis nullhypotesen er sann kan vi forvente at forskjeller i gjennomsnittskårer så stor som .56 (enten over eller under 0) vil kunne oppstå mindre enn 5 % av gangene bare som resultat av tilfeldigheter. Dette sannsynlighetsnivået møter kriteriet for statistisk signifikans som beskrevet tidligere. Da kan man avvise nullhypotesen og konkludere med at det finnes en virkelig forskjell i gjennomsnittskarakterene mellom de to populasjonene. Dette betyr at man har funnet støtte til eksperimentets hypotese om at stressmestringsprogram fører til bedre skoleprestasjoner (Passer & Smith, 2004).

Ifølge Passer & Smith (2004) sier man støtter, og ikke beviser, fordi slutningen er gjort med utgangspunkt i en sannsynlighetspåstand. Det finnes likevel en liten sannsynlighet for, mindre enn 5 %, at nullhypotesen er sann og at disse forskjellene viste seg i resultatene bare som en ren tilfeldighet. En statistisk analyse sier ikke noe om hvorfor en gruppe som har deltatt på et program om stressmestring presterer bedre enn andre. Det kan være et resultat av programmets innhold, eller andre ting som at det gav dem mye sosial oppmerksomhet. Uansett hvor mange ganger vi gjør en undersøkelse som oppnår signifikante resultater, må vi aldri bevege oss vekk fra verden hvor vi finner den virkelige sannheten (Passer & Smith, 2004).

Referanser


Passer, M. W. & Smith, R. E. (2004). Psychology. The science of mind and behavior. Second edition. New York: McGraw Hill


Ingen kommentarer:

Legg inn en kommentar

Si din mening, eller still spørsmål om innlegget her.