abonnement Unibet Coolblue
pi_127431259


Hier verder met Deel 5.

Links:
http://www.spsslog.com/
http://www.spss.com/nl/

Laatste post:
quote:
Ik haat spss op dit moment even heel erg. Ik kom er echt niet uit.

Oke, situatie: Ik wil weten of een hoge score op X veroorzaakt wordt door een betere score op Y. Y bestaat uit meerdere measures, bij sommige measures is een hoge score beter, bij andere is een lage beter. Daarnaast kijk ik ook naar een lineair verband tussen X en demografische gegevens.
Ik weet dat ik hiervoor een lineaire regressieanalyse moet uitvoeren. Volgens mijn afstudeerbegeleider moet ik dan een hiërarchische doen, omdat ik denk dat Y meer invloed heeft op X dan demografisch. Ik loop dus echt vast zodra ik daarmee bezig ga.

Mijn vraag dan ook: Hoe doe ik zo'n analyse en waar moet ik naar kijken in de eindeloze tabellen bij de uitkomsten? Moet ik dan ook nog rekening houden met de hoog/laag verschillen bij familie? En wat doe ik dan bij die blocks?

Hoop dat iemand kan helpen, dit is hopeloos ;(
pi_127431699
quote:
0s.gif Op woensdag 5 juni 2013 09:13 schreef _Loki het volgende:
Ik haat spss op dit moment even heel erg. Ik kom er echt niet uit.

Oke, situatie: Ik wil weten of een hoge score op X veroorzaakt wordt door een betere score op Y. Y bestaat uit meerdere measures, bij sommige measures is een hoge score beter, bij andere is een lage beter. Daarnaast kijk ik ook naar een lineair verband tussen X en demografische gegevens.
Ik weet dat ik hiervoor een lineaire regressieanalyse moet uitvoeren. Volgens mijn afstudeerbegeleider moet ik dan een hiërarchische doen, omdat ik denk dat Y meer invloed heeft op X dan demografisch. Ik loop dus echt vast zodra ik daarmee bezig ga.

Mijn vraag dan ook: Hoe doe ik zo'n analyse en waar moet ik naar kijken in de eindeloze tabellen bij de uitkomsten? Moet ik dan ook nog rekening houden met de hoog/laag verschillen bij familie? En wat doe ik dan bij die blocks?

Hoop dat iemand kan helpen, dit is hopeloos ;(
Pak het boek van pallant er even bij. Is ergens online te vinden. ('spss survival manual')
Met blocks doe je niets want dat hoort bij logistische. je kijkt eerst naar de ANOVA tabel en daarna de beta-waardes en of deze significant zijn.
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
pi_127440922
Inmiddels heb ik gekozen voor multipele imputatie. Bij SPSS kan bij logistische regressie vervolgens de gepoolde Beta's weergegeven worden. Op die manier heb ik geen missings meer, weinig verschil in gemiddelden en effecten, maar eerder significante resultaten (door een hogere N).

Verder heb ik de volgende vraag: is het mogelijk om twee gemiddelden van twee groepen te vergelijken, terwijl het mogelijk is dat één iemand in beide groepen zit?
Voorbeeld: ik heb een populatie waarvan iemand in de populatie in groep 1 of 2 kan zitten. Groep 1 is vervolgens weer op gesplitst in groep 1a en groep 1b. Is het mogelijk het groepsgemiddelde van groep 1a te vergelijken met het groepsgemiddelde van groep 1? Zoja; hoe?
pi_127619373
Voor mijn onderzoek heb ik een model opgesteld waarbij ik o.a. een moderator variable heb gedefinieerd: Voluntariness of use.

Ik wil hiermee bekijken of het vrijwillig gebruik van een informatie systeem invloed heeft op bepaalde aspecten in mijn model.

Om dit te meten heb ik in mijn survey 2 statements over het vrijwillig gebruik opgenomen, waarbij ik gebruik maak van een Likert 5 scale.
Ik heb het gemiddelde van deze statements berekend, en wil nu een split-sample approach gaan toepassen, maar ik heb iets over het hoofd gezien, ik kan deze groep namelijk niet eerlijk splitsen.

Voorbeeld 1:
Groep 1 (Low) bestaat uit: 1 t/m 3
Groep 2 (High) bestaat uit: 3.5 t/m 5

Voorbeeld 2:
Groep 1 (Low): 1 t/m 2.5
Groep 2 (High): 3 t/m 5

Hoe ik het ook splits, de ene groep is altijd groter dan de andere groep. En dat is een behoorlijke issue, want value=3 bestaat uit 31.9% van de respondenten uit de sample groep.

Nu heb ik hier al een tijdje over liggen piekeren, en nu is er misschien wel een oplossing die ik zou kunnen toepassen. 3 is precies het middenpunt, 3 zou dus als inconclusive gedefinieerd kunnen worden omdat het zowel in groep 1 als in groep 2 valt. En dan zou mijn split sample approach worden:

Groep 1 (Low): 1 t/m 2.5
Groep 2 (High): 3.5 t/m 5

Hier zit alleen kleine maar aan, groep 1 bestaat dan nog maar uit 13.7% en groep 2 uit 54.3%, waardoor het statistisch gezien weinig nut meer heeft om er nog analyses mee te gaan draaien.
Hoe dan ook, heeft iemand tips hoe ik dit het beste kan aanpakken?
BlaBlaBla
pi_127672654
quote:
0s.gif Op woensdag 5 juni 2013 14:22 schreef Droplollie het volgende:
Verder heb ik de volgende vraag: is het mogelijk om twee gemiddelden van twee groepen te vergelijken, terwijl het mogelijk is dat één iemand in beide groepen zit?
Voorbeeld: ik heb een populatie waarvan iemand in de populatie in groep 1 of 2 kan zitten. Groep 1 is vervolgens weer op gesplitst in groep 1a en groep 1b. Is het mogelijk het groepsgemiddelde van groep 1a te vergelijken met het groepsgemiddelde van groep 1? Zoja; hoe?
Iemand?
O+
pi_127672688
quote:
0s.gif Op woensdag 5 juni 2013 14:22 schreef Droplollie het volgende:
Inmiddels heb ik gekozen voor multipele imputatie. Bij SPSS kan bij logistische regressie vervolgens de gepoolde Beta's weergegeven worden. Op die manier heb ik geen missings meer, weinig verschil in gemiddelden en effecten, maar eerder significante resultaten (door een hogere N).

Verder heb ik de volgende vraag: is het mogelijk om twee gemiddelden van twee groepen te vergelijken, terwijl het mogelijk is dat één iemand in beide groepen zit?
Voorbeeld: ik heb een populatie waarvan iemand in de populatie in groep 1 of 2 kan zitten. Groep 1 is vervolgens weer op gesplitst in groep 1a en groep 1b. Is het mogelijk het groepsgemiddelde van groep 1a te vergelijken met het groepsgemiddelde van groep 1? Zoja; hoe?
Dat zou rammelen aan alle kanten..
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
pi_127672752
quote:
0s.gif Op dinsdag 11 juni 2013 18:12 schreef crossover het volgende:

[..]

Dat zou rammelen aan alle kanten..
Beide groepen hebben toch hun eigen gemiddelde, sd en n.
Waarom zou dat rammelen?
pi_127694747
quote:
0s.gif Op dinsdag 11 juni 2013 18:15 schreef Droplollie het volgende:

[..]

Beide groepen hebben toch hun eigen gemiddelde, sd en n.
Waarom zou dat rammelen?
Omdat je veel proefpersonen in beide groepen hebt zitten.
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
pi_127946703
quote:
0s.gif Op woensdag 12 juni 2013 09:02 schreef crossover het volgende:

[..]

Omdat je veel proefpersonen in beide groepen hebt zitten.
Ik heb het inderdaad maar niet gedaan.

Ik heb verder nog een vraag:

Ik heb twee regressieanalyses uitgevoerd; de eerste met alle (8) onafhankelijke variabelen apart ingevoerd (dus niet gecontroleerd op de overige onafhankelijke variabelen). De twee met alle (8) onafhankelijke variabelen gezamenlijk ingevoerd (dus gecontroleerd op de overige variabelen).

Door de laatste methode is er opeens geen significant effect meer van 3 onafhankelijke variabelen op de afhankelijke variabele. Dit is logisch, omdat gecontroleerd wordt op de overige variabelen. Klaarblijkelijk is er een mediatie-effect.
Hoe kan ik het beste onderzoeken door welke variabelen het effect wordt afgenomen?
Is enkel kijken naar de correlaties tussen de onafhankelijke variabelen de enige mogelijkheid? Of kan ik ook op een andere manier onderzoeken welke variabelen het effect doen afnemen?
  dinsdag 18 juni 2013 @ 15:24:28 #10
67670 Skv
Cynist.
pi_127948854
omfgwtfbbq, het lijkt er op dat mijn analyse van mn masterthesis ein-de-lijk is goedgekeurd. _O_
Geen enkele hypothese met een significant resultaat. :').
Ons soort mensen, trapt reeds jaren blij van zin, het vuile plebs de modder in.
Ons soort mensen, steunpilaar van vaderland en koningin.
  dinsdag 18 juni 2013 @ 16:02:13 #11
165047 eleganza
ik hou van koekjes.
pi_127950309
quote:
7s.gif Op dinsdag 18 juni 2013 15:24 schreef Skv het volgende:
omfgwtfbbq, het lijkt er op dat mijn analyse van mn masterthesis ein-de-lijk is goedgekeurd. _O_
Geen enkele hypothese met een significant resultaat. :').
Dat is op z'n minst een *O* waard hè!

Na mijn noobmomentje in het begin heb ik gisteren voor het eerst resultaten kunnen produceren en aflezen. Twee hoofdeffecten (van mogelijk 4) en geen interactie effecten. (2x2 combi design). Ben trots op mezelf dat ik 't tot hier heb geschopt. Zeker met cijfers involved. Nou mn researchpaper nog schrijven. In 3 dagen :')
Koekje d'r bij?
pi_128010383
Ik heb de feedback op de conceptversie van mn scriptie terug gekregen. Nu wil mn begeleider ineens dat ik Nederlandse termen ga gebruiken voor SPSS toetsen ed. Maar die heb ik nog nooit eerder gebruikt :') Weten jullie wat de Nederlandse benaming is voor de volgende woorden?

- Analysis of Variance ANOVA (variantie analyse?)
- partial correlatie (gedeeltelijke correlatie?? hierover twijfel ik het meest..)
- one way ANOVA (eenweg ANOVA?)
- two way ANOVA (tweeweg ANOVA?)
pi_128016410
quote:
0s.gif Op woensdag 19 juni 2013 22:34 schreef fh101 het volgende:
Ik heb de feedback op de conceptversie van mn scriptie terug gekregen. Nu wil mn begeleider ineens dat ik Nederlandse termen ga gebruiken voor SPSS toetsen ed. Maar die heb ik nog nooit eerder gebruikt :') Weten jullie wat de Nederlandse benaming is voor de volgende woorden?

- Analysis of Variance ANOVA (variantie analyse?)
- partial correlatie (gedeeltelijke correlatie?? hierover twijfel ik het meest..)
- one way ANOVA (eenweg ANOVA?)
- two way ANOVA (tweeweg ANOVA?)
vertalen naar het Nederlands :? Omgekeerde wereld :P Ik kreeg commentaar dat ik geen NL termen in mijn grafiekjes en tabellen mocht hebben omdat mijn scriptie in het Engels is..

Kan je die ANOVA's niet gewoon F-test noemen en voor de ways 1-factor variantie-analyse en 2-factor variantie-analyse? Partial correlation is toch de relatie tussen twee variabelen gecontroleerd voor een derde? Leg het begrip even uit en noem het dan partiële correlatie.
Ons soort mensen, trapt reeds jaren blij van zin, het vuile plebs de modder in.
Ons soort mensen, steunpilaar van vaderland en koningin.
pi_128036939
quote:
7s.gif Op woensdag 19 juni 2013 23:58 schreef Skv het volgende:

[..]

vertalen naar het Nederlands :? Omgekeerde wereld :P Ik kreeg commentaar dat ik geen NL termen in mijn grafiekjes en tabellen mocht hebben omdat mijn scriptie in het Engels is..

Kan je die ANOVA's niet gewoon F-test noemen en voor de ways 1-factor variantie-analyse en 2-factor variantie-analyse? Partial correlation is toch de relatie tussen twee variabelen gecontroleerd voor een derde? Leg het begrip even uit en noem het dan partiële correlatie.
Ja ik vind het ook een beetje vaag... Mijn scriptie is dan wel in het Nederlands dus enigszins logisch is het natuurlijk wel, maar als je tijdens je studie alleen maar de Engelse termen gebruikt en hoort van docenten.

Wat je zegt klinkt wel duidelijk inderdaad, denk dat ik dat maar doe. Thanks!
  donderdag 20 juni 2013 @ 17:11:17 #15
171936 DuTank
Spaashaas.
pi_128041076
Iemand die verstand heeft van een Multinomial Logistic Regression?
Herb is the healing of a nation, alcohol is the destruction.
pi_128090058
Hoi!

Voor mijn masterscriptie ben ik bezig met het verwerken van de resultaten in SPSS (jippi, not).
Nu loop ik echt helemaal vast!

Ik heb een vragenlijst gehouden met likert-schaal vragen. Deze heb ik allemaal ingevoerd in SPSS, no problem. Nu heb ik de verschillende variabelen die samen één item vormen samengevoegd, eerst heb ik een Cronbach's Alpha uitgevoerd om te kijken of dit kon, no problem.

Mijn vragenlijst bestond uit 2 afbeeldingen. Nu wil ik de uitkomsten voor deze twee afbeeldingen met elkaar vergelijken. Hoe doe ik dit?

De data van de twee afbeeldingen staat wel in één SPSS bestand.

Ik dacht aan een ANOVA, maar welke gegevens moet ik dan waar invoeren?
Moet ik voor de afbeeldingen ook variabelen aanmaken? Hoe doe ik dan zonder dat SPSS er niet mee kan rekenen (had ik net namelijk).

Ik heb het idee dat ik een variabele mis ofzo, maar zou niet weten welke en hoe ik deze dan in moet voeren.

Wie kan mij helpen? Ik word er onderhand een beetje wanhopig van!
Living on a prayer
  maandag 24 juni 2013 @ 09:04:07 #17
171936 DuTank
Spaashaas.
pi_128183314
quote:
0s.gif Op vrijdag 21 juni 2013 18:48 schreef Lieselot-je het volgende:
Hoi!

Voor mijn masterscriptie ben ik bezig met het verwerken van de resultaten in SPSS (jippi, not).
Nu loop ik echt helemaal vast!

Ik heb een vragenlijst gehouden met likert-schaal vragen. Deze heb ik allemaal ingevoerd in SPSS, no problem. Nu heb ik de verschillende variabelen die samen één item vormen samengevoegd, eerst heb ik een Cronbach's Alpha uitgevoerd om te kijken of dit kon, no problem.

Mijn vragenlijst bestond uit 2 afbeeldingen. Nu wil ik de uitkomsten voor deze twee afbeeldingen met elkaar vergelijken. Hoe doe ik dit?

De data van de twee afbeeldingen staat wel in één SPSS bestand.

Ik dacht aan een ANOVA, maar welke gegevens moet ik dan waar invoeren?
Moet ik voor de afbeeldingen ook variabelen aanmaken? Hoe doe ik dan zonder dat SPSS er niet mee kan rekenen (had ik net namelijk).

Ik heb het idee dat ik een variabele mis ofzo, maar zou niet weten welke en hoe ik deze dan in moet voeren.

Wie kan mij helpen? Ik word er onderhand een beetje wanhopig van!
Je theoretisch schema is ietwat onduidelijk (voor me). Hoe ziet je design eruit? Wil je de twee afbeeldingen vergelijken per proefpersoon (within-subjects) of wil je weten of er verschil is in bijvoorbeeld sekse in uitkomsten bij de twee afbeeldingen (between-subjects denk ik)?

Loop ook deze even na: http://www.ats.ucla.edu/stat/spss/whatstat/
Herb is the healing of a nation, alcohol is the destruction.
pi_128183389
Bedankt voor je reactie DuTank. Ik heb 2 afbeeldingen voorgelegd aan één groep proefpersonen, nu wil ik zien welke afbeelding beter heeft gescoord onder de gehele groep proefpersonen.
Living on a prayer
  maandag 24 juni 2013 @ 09:55:30 #19
171936 DuTank
Spaashaas.
pi_128184109
quote:
0s.gif Op maandag 24 juni 2013 09:10 schreef Lieselot-je het volgende:
Bedankt voor je reactie DuTank. Ik heb 2 afbeeldingen voorgelegd aan één groep proefpersonen, nu wil ik zien welke afbeelding beter heeft gescoord onder de gehele groep proefpersonen.
Je maakt dus geen onderscheid in verschillende groepen?
En hoe ziet je data eruit?

Heb je een kolom voor Afbeelding 1 en een kolom met Afbeelding 2 en dan de bijbehorende scores? Want volgens mij is dan een paired t-test wat je moet doen. Die is redelijk eenvoudig uit te voeren door middel van Analyze - Compare Means - Paired Sample t-test. Dan zet je gewoon Afbeelding 1 en Afbeelding 2 in het vakje van Paired Variables. En dan op Ok.

[ Bericht 23% gewijzigd door DuTank op 24-06-2013 10:31:11 ]
Herb is the healing of a nation, alcohol is the destruction.
  maandag 24 juni 2013 @ 11:43:04 #20
67670 Skv
Cynist.
pi_128187203
quote:
0s.gif Op maandag 24 juni 2013 09:10 schreef Lieselot-je het volgende:
Bedankt voor je reactie DuTank. Ik heb 2 afbeeldingen voorgelegd aan één groep proefpersonen, nu wil ik zien welke afbeelding beter heeft gescoord onder de gehele groep proefpersonen.
Paired samples t-test inderdaad waarbij je de gemiddelde score per afbeelding vergelijkt. Maar dit zou onderhand toch 'simpel' moeten zijn, als je al bij je master bent? Of heb je geen statistiek 1 en 2 gehad?
Ons soort mensen, trapt reeds jaren blij van zin, het vuile plebs de modder in.
Ons soort mensen, steunpilaar van vaderland en koningin.
  maandag 24 juni 2013 @ 12:00:26 #21
165047 eleganza
ik hou van koekjes.
pi_128187745
quote:
7s.gif Op maandag 24 juni 2013 11:43 schreef Skv het volgende:

[..]

Paired samples t-test inderdaad waarbij je de gemiddelde score per afbeelding vergelijkt. Maar dit zou onderhand toch 'simpel' moeten zijn, als je al bij je master bent? Of heb je geen statistiek 1 en 2 gehad?
Ik ben ook masterstudent, heb statistiek 1 gehad, oooit... ergens in een ver verleden. Voor mijn eerder genoemde opdracht moest ik qua kennis from scratch beginnen, je weet wel wat je moet invullen, maar wat je output betekent... oh god. Nope. Dan ga je een taalstudie doen om de cijfers te ontlopen maar dan moet je alsnog met cijfers werken. Ik zie haar probleem hoor, ik ben blij dat ik die opdracht heb moeten doen, anders was ik straks ook afgestudeerd zonder enige kennis over statistiek :')

Maar idd, een paired t-test lijkt me hier het handigst :)
Koekje d'r bij?
  maandag 24 juni 2013 @ 13:17:25 #22
171936 DuTank
Spaashaas.
pi_128190361
quote:
0s.gif Op maandag 24 juni 2013 12:00 schreef eleganza het volgende:

[..]

Ik ben ook masterstudent, heb statistiek 1 gehad, oooit... ergens in een ver verleden. Voor mijn eerder genoemde opdracht moest ik qua kennis from scratch beginnen, je weet wel wat je moet invullen, maar wat je output betekent... oh god. Nope. Dan ga je een taalstudie doen om de cijfers te ontlopen maar dan moet je alsnog met cijfers werken. Ik zie haar probleem hoor, ik ben blij dat ik die opdracht heb moeten doen, anders was ik straks ook afgestudeerd zonder enige kennis over statistiek :')

Maar idd, een paired t-test lijkt me hier het handigst :)
Volgens mij heb je bij elke wetenschappelijke studie wel cijfers en/of SPSS nodig :P
Herb is the healing of a nation, alcohol is the destruction.
  maandag 24 juni 2013 @ 13:20:18 #23
165047 eleganza
ik hou van koekjes.
pi_128190450
quote:
0s.gif Op maandag 24 juni 2013 13:17 schreef DuTank het volgende:

[..]

Volgens mij heb je bij elke wetenschappelijke studie wel cijfers en/of SPSS nodig :P
Communicatiekunde. Als ik alleen kwalitatieve onderzoeksvakken had gekozen (daar heb ik er 3 van de vier van) en mijn scriptie ook volledig kwalitatief had gedaan had ik geen getal hoeven te gebruiken in spss ;) Maar ben toch blij dat ik er iets van weet nu hahaha. Maar vraag me niet wat een chisquare ook alweer berekent, want dat weet ik dus niet _O-
Koekje d'r bij?
pi_128209191
Bedankt voor alle reacties!

Ik heb alleen statistiek 1 gedaan (een jaar of 2 geleden onderhand) en de daar werd alles voor je uitgekauwd ;)

Nu heb ik normaliter wel enig verstand van SPSS, maar ik kwam er nu echt even niet meer uit. Laten we het op de stress houden. In ieder geval bedankt allemaal.
Living on a prayer
  maandag 24 juni 2013 @ 22:23:06 #25
67670 Skv
Cynist.
pi_128217150
quote:
0s.gif Op maandag 24 juni 2013 13:20 schreef eleganza het volgende:

[..]

Communicatiekunde. Als ik alleen kwalitatieve onderzoeksvakken had gekozen (daar heb ik er 3 van de vier van) en mijn scriptie ook volledig kwalitatief had gedaan had ik geen getal hoeven te gebruiken in spss ;) Maar ben toch blij dat ik er iets van weet nu hahaha. Maar vraag me niet wat een chisquare ook alweer berekent, want dat weet ik dus niet _O-
Verschil bekijken tussen gemiddelden van twee populaties. ;)
Ons soort mensen, trapt reeds jaren blij van zin, het vuile plebs de modder in.
Ons soort mensen, steunpilaar van vaderland en koningin.
  maandag 24 juni 2013 @ 22:29:48 #26
171936 DuTank
Spaashaas.
pi_128217650
quote:
0s.gif Op maandag 24 juni 2013 20:15 schreef Lieselot-je het volgende:
Bedankt voor alle reacties!

Ik heb alleen statistiek 1 gedaan (een jaar of 2 geleden onderhand) en de daar werd alles voor je uitgekauwd ;)

Nu heb ik normaliter wel enig verstand van SPSS, maar ik kwam er nu echt even niet meer uit. Laten we het op de stress houden. In ieder geval bedankt allemaal.
Is de analyse inmiddels gelukt? :)
Herb is the healing of a nation, alcohol is the destruction.
pi_128217833
Okee, ik heb in mijn scriptie een uitspraak gezet en nu vraagt mijn begeleider om meer uitleg daarover, maar ik vraag me of of het eigenlijk wel klopt wat ik heb gezegd en waarom dan :')

Ik heb onderzocht of er verschil is tussen 3 verschillende groepen (laag, midden en hoog). Ik hou het een beetje vaag omdat de resultaten nog niet open en bloot mogen. De verdeling is ongeveer als volgt: laag (n = 15), midden (n = 30) en hoog (n = 60). Uiteindelijk bleek er weinig significante verschillen zijn tussen deze drie groepen.

Ik heb in de discussie staan dat in vervolgonderzoek meer mensen uit de groep laag mee zouden moeten doen, waardoor verschillen tussen de groepen sneller duidelijk worden.

Over dat laatste stuk twijfel ik. Klopt dat?
  maandag 24 juni 2013 @ 22:43:25 #28
67670 Skv
Cynist.
pi_128218566
Ja. Het is vreemd dat je verwacht dat de verschillen tussen de groepen 'duidelijker' zullen worden. Wat bedoel je daarmee? Dat wanneer de groepen gelijke grootte hebben, er grotere verschillen zichtbaar zullen zijn? Als je dat stelt, dan bedoel je dat je conclusie van nu (geen significante verschillen) verklaard kunnen worden door je steekproefgrootte. Is dat wat je wil zeggen?
Ons soort mensen, trapt reeds jaren blij van zin, het vuile plebs de modder in.
Ons soort mensen, steunpilaar van vaderland en koningin.
pi_128224608
quote:
7s.gif Op maandag 24 juni 2013 22:43 schreef Skv het volgende:
Ja. Het is vreemd dat je verwacht dat de verschillen tussen de groepen 'duidelijker' zullen worden. Wat bedoel je daarmee? Dat wanneer de groepen gelijke grootte hebben, er grotere verschillen zichtbaar zullen zijn? Als je dat stelt, dan bedoel je dat je conclusie van nu (geen significante verschillen) verklaard kunnen worden door je steekproefgrootte. Is dat wat je wil zeggen?
Ongeveer ja :Y Maar ik zoek een duidelijkere manier om het op te schrijven, en ik weet niet meer precies hoe het statistisch zit. Er is nu een ongelijke verdeling qua groepsgrootte want er zijn erg weinig mensen die in de categorie 'laag' vallen. Ik wil aanbevelen dat in vervolgonderzoek meer mensen meedoen die in deze categorie vallen, want dat lijkt me beter voor het onderzoek. Maar hoe zat dat ook al weer...

Als je meer respondenten hebt, kun je met grotere zekerheid uitspraken doen over de gehele populatie. Misschien moet ik het daarop houden.
pi_128243733
Ha beste mensen,

Ik ben nog niet zo bekend met SPSS en ik vroeg me af of de manier waarop ik mijn dataset op het moment wil organiseren wel de makkelijkste manier is voor vervolg analyses.

Het betreft een onderzoek waarbij ik bij een aantal honderd subjects de ruwe data heb van 24-uurs metingen X en Y. Dat houdt in dat bij iemand de hele dag lang om het half uur (tijdens dag uren) of uur (tijdens het slapen) een meting wordt uitgevoerd waarbij (numerische) variabelen X en Y worden gemeten. Metingen gaan soms mis en de dag- en slaapuren geven de personen zelf aan, waardoor de tijdstippen waarop de metingen plaatsvinden verschillen tussen de mensen. Waar ik uiteindelijk in geïnteresseerd ben zijn bijvoorbeeld de gemiddelde X en Y waarden in bepaalde tijdsperioden (zowel absoluut als relatief tot bijv. slapen) en wat eventuele determinanten zijn voor X en Y uit de karakteristieken van de subjects.

Mijn idee zou zijn om met twee datasets te verwerken voor de overzichtelijkheid omdat je anders aan honderd kolommen komt door de vele metingen over 24 uur:

1. Dataset met horizontale data en baseline karakteristieken
---------------------------------------------------------------------------------------------------------------------------------------------
| subjectID | geslacht | leeftijd | startTijdstipDag | startTijdstipNach | Var_1 | Var_2 | Etc |
|--------------------------------------------------------------------------------------------------------------------------------------------

2. Dataset met vertikale data van de metingen (met wat onzin voorbeelddata)
-----------------------------------------------------------------------------
| subjectID | tijdstipMeting | metingX | meting Y |
-----------------------------------------------------------------------------
| 1 | 09:00 | 200 | 100 |
-----------------------------------------------------------------------------
| 1 | 09:30 | 205 | 105 |
-----------------------------------------------------------------------------
| 1 | 10:00 | 190 | 85 |
-----------------------------------------------------------------------------
| 1 | 10:30 | 210 | 110 |
-----------------------------------------------------------------------------
| 1 | 12:00 | 200 | 100 |
-----------------------------------------------------------------------------
etc

Zouden jullie dat ook op deze manier organiseren? En kan je makkelijk met twee datasets tegelijkertijd werken (zoals in Excel je sheets met elkaar kan linken) om bijvoorbeeld variabelen uit te rekenen voor dataset 1 uit dataset 2 of moet je dan alles meteen weer mergen?

Suggesties en tips zijn zeer welkom!
  woensdag 26 juni 2013 @ 13:19:07 #31
8369 speknek
Another day another slay
pi_128276939
Hmm ik probeer een collega te helpen maar ik kom er zelf niet uit.

Zeg dat hij het effect van appels en peren eten op gemoedstoestand wil meten.

Onafhankelijke variabele fruit, afhankelijke variabele gemoedstoestand.

Alleen, sommige mensen vinden appels veel lekkerder dan anderen, en sommige peer veel lekkerder dan anderen.

Dus van tevoren heeft ie een meting "hoe lekker vind je appels", en "hoe lekker vind je peren".

Dat lijken me covariabelen. Alleen; voor de mensen die uiteindelijk de peer eten, is het niet relevant om hoe lekker vind je appels als covariaat te hebben, en evenzo voor de mensen die uiteindelijk appel eten.

Hoe moet je dan die covariaten toevoegen. Als twee aparte covariaten, of een enkele variabele 'lekker' waarbij je de score van de appels voor de appelgroep invult, en de score van de peren voor de perengroep?
They told me all of my cages were mental, so I got wasted like all my potential.
pi_128279398
Ik ben bezig met mijn masterscriptie, redelijk ervaren al met SPSS. Echter ik zoek een boek of iemand die wat meer achtergrondinformatie heeft geschreven over constructvaliditeit. Dit omdat ik constructvaliditeit zeer goed kan gebruiken voor mijn onderzoek :).
pi_128280172
quote:
0s.gif Op woensdag 26 juni 2013 13:19 schreef speknek het volgende:
Hmm ik probeer een collega te helpen maar ik kom er zelf niet uit.

Zeg dat hij het effect van appels en peren eten op gemoedstoestand wil meten.

Onafhankelijke variabele fruit, afhankelijke variabele gemoedstoestand.

Alleen, sommige mensen vinden appels veel lekkerder dan anderen, en sommige peer veel lekkerder dan anderen.

Dus van tevoren heeft ie een meting "hoe lekker vind je appels", en "hoe lekker vind je peren".

Dat lijken me covariabelen. Alleen; voor de mensen die uiteindelijk de peer eten, is het niet relevant om hoe lekker vind je appels als covariaat te hebben, en evenzo voor de mensen die uiteindelijk appel eten.

Hoe moet je dan die covariaten toevoegen. Als twee aparte covariaten, of een enkele variabele 'lekker' waarbij je de score van de appels voor de appelgroep invult, en de score van de peren voor de perengroep?
Kun je niet kijken of iemand appels juist lekkerder dan peren vindt of andersom? Als je daar een dummy variable van maakt wordt het eenvoudiger volgens mij.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  woensdag 26 juni 2013 @ 14:51:53 #34
8369 speknek
Another day another slay
pi_128280983
Hmnee, het is meer appels en rotte peren zeg maar. En de gedachte is dan dat mensen die een appel eten blijer zijn dan mensen die een rotte peer eten. Alleen, ik (hij) vind dus dat sommige mensen rotte peren minder erg vinden dan anderen, en dit de resultaten beinvloedt.
They told me all of my cages were mental, so I got wasted like all my potential.
pi_128281796
quote:
0s.gif Op woensdag 26 juni 2013 14:51 schreef speknek het volgende:
Hmnee, het is meer appels en rotte peren zeg maar. En de gedachte is dan dat mensen die een appel eten blijer zijn dan mensen die een rotte peer eten. Alleen, ik (hij) vind dus dat sommige mensen rotte peren minder erg vinden dan anderen, en dit de resultaten beinvloedt.
Ik bedoel zeg maar dat je
if (appel_lekkerder_dan_peer == 1 && persoon_heeft_een_appel_gegeten == 1)
vergelijkt met
if (appel__lekkerder_dan_peer == 0 && persoon_heeft_een_peer_gegeten == 1)

En dat je
if (appel__lekkerder_dan_peer == 1 && persoon_heeft_een_appel_gegeten == 0)
vergelijkt met
if (appel__lekkerder_dan_peer == 0 && persoon_heeft_een_peer_gegeten == 0)

Zo scheid je dus het lievelingsfruit van de niet-favoriet. Ik moet wel eerlijk bekennen dat ik niet genoeg van SPSS weet om dit erin te kunnen fietsen. :P
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  woensdag 26 juni 2013 @ 15:13:54 #36
8369 speknek
Another day another slay
pi_128281916
Ik snap wat je bedoelt, en dan heb je een 2x2 design, maar iedereen vindt appels lekkerder dan rotte peren :). Het is meer een continue variabele en heb ik niet genoeg ppn (het zijn ook drie groepen, met een controle groep) om ze in die drie groepen door twee te delen.
They told me all of my cages were mental, so I got wasted like all my potential.
pi_128282198
quote:
0s.gif Op woensdag 26 juni 2013 15:13 schreef speknek het volgende:
Ik snap wat je bedoelt, en dan heb je een 2x2 design, maar iedereen vindt appels lekkerder dan rotte peren :). Het is meer een continue variabele en heb ik niet genoeg ppn (het zijn ook drie groepen, met een controle groep) om ze in die drie groepen door twee te delen.
Oh, zo. Dan kan ik je niet verder helpen. :P
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  woensdag 26 juni 2013 @ 15:29:02 #38
8369 speknek
Another day another slay
pi_128282484
quote:
0s.gif Op woensdag 26 juni 2013 15:21 schreef wimjongil het volgende:

[..]

Oh, zo. Dan kan ik je niet verder helpen. :P
Toch bedankt!

quote:
0s.gif Op woensdag 26 juni 2013 14:12 schreef Brembo het volgende:
Ik ben bezig met mijn masterscriptie, redelijk ervaren al met SPSS. Echter ik zoek een boek of iemand die wat meer achtergrondinformatie heeft geschreven over constructvaliditeit. Dit omdat ik constructvaliditeit zeer goed kan gebruiken voor mijn onderzoek :).
Je kan construct validiteit voor elk onderzoek goed gebruiken. Wat wil je er ongeveer over weten?
They told me all of my cages were mental, so I got wasted like all my potential.
  donderdag 27 juni 2013 @ 07:18:17 #39
171936 DuTank
Spaashaas.
pi_128309799
quote:
0s.gif Op woensdag 26 juni 2013 14:51 schreef speknek het volgende:
Hmnee, het is meer appels en rotte peren zeg maar. En de gedachte is dan dat mensen die een appel eten blijer zijn dan mensen die een rotte peer eten. Alleen, ik (hij) vind dus dat sommige mensen rotte peren minder erg vinden dan anderen, en dit de resultaten beinvloedt.
Zou dit niet een normale verdeling kunnen zijn? Sommige mensen zullen het super erg vinden, de meeste mensen gewoon erg en weer sommige mensen die het helemaal niet zo erg vonden.
Herb is the healing of a nation, alcohol is the destruction.
  donderdag 27 juni 2013 @ 08:28:33 #40
8369 speknek
Another day another slay
pi_128310407
Ja. En er komt dus ook iets significants uit als ik het als covariaat invoer. Alleen ik weet dus niet hoe ik het als covariaat in moet voeren. Want wat mensen van appels vinden is niet relevant voor de perenconditie, en wat mensen van peren vinden is niet relevant voor de appelsconditie.
They told me all of my cages were mental, so I got wasted like all my potential.
  donderdag 27 juni 2013 @ 08:47:52 #41
171936 DuTank
Spaashaas.
pi_128310696
quote:
0s.gif Op donderdag 27 juni 2013 08:28 schreef speknek het volgende:
Ja. En er komt dus ook iets significants uit als ik het als covariaat invoer. Alleen ik weet dus niet hoe ik het als covariaat in moet voeren. Want wat mensen van appels vinden is niet relevant voor de perenconditie, en wat mensen van peren vinden is niet relevant voor de appelsconditie.
Ik ben ook geen expert hoor, maar het lijkt mij dat als je gewoon die twee covariaten erin stopt, dat SPSS dan wel uitrekent in hoeverre ze van invloed zijn.

Edit: misschien zit er fundamenteels wat fout in het onderzoek. Waarom zou je naar de attitude t.o.v. appels vragen, als iemand in een perenconditie zit?
Als je enkel had gevraagd naar het fruitsoort die bij de conditie hoort waar de proefpersoon in zit, dan had 1 covariaat gehad die altijd over het betreffende fruitsoort ging.

[ Bericht 9% gewijzigd door DuTank op 27-06-2013 08:57:31 ]
Herb is the healing of a nation, alcohol is the destruction.
  donderdag 27 juni 2013 @ 10:50:43 #42
8369 speknek
Another day another slay
pi_128313600
Nou en dat is precies het punt.

Hij heeft gevraagd wat iemands attitude was t.o.v. appels EN t.o.v. peren (twee variabelen).

Mijn ingeving zou zijn om hier een variabele te maken, waar je de attitude t.o.v. appels in kopieert voor de mensen in de appelgroep, en de attitude t.o.v. peren erin kopieert voor de mensen in de perengroep.

Maar ik weet niet of dat mag, ik heb het zeker in ieder geval nog nooit gezien.
They told me all of my cages were mental, so I got wasted like all my potential.
  donderdag 27 juni 2013 @ 11:11:20 #43
171936 DuTank
Spaashaas.
pi_128314336
quote:
0s.gif Op donderdag 27 juni 2013 10:50 schreef speknek het volgende:
Nou en dat is precies het punt.

Hij heeft gevraagd wat iemands attitude was t.o.v. appels EN t.o.v. peren (twee variabelen).

Mijn ingeving zou zijn om hier een variabele te maken, waar je de attitude t.o.v. appels in kopieert voor de mensen in de appelgroep, en de attitude t.o.v. peren erin kopieert voor de mensen in de perengroep.

Maar ik weet niet of dat mag, ik heb het zeker in ieder geval nog nooit gezien.
Ik heb verder echt geen idee..
Herb is the healing of a nation, alcohol is the destruction.
pi_128339388
quote:
0s.gif Op woensdag 26 juni 2013 15:29 schreef speknek het volgende:

[..]

Toch bedankt!

[..]

Je kan construct validiteit voor elk onderzoek goed gebruiken. Wat wil je er ongeveer over weten?
Ik snap zelf hoe het werkt alleen moet ik natuurlijk wel bronnen hebben die uitleggen hoe de wetenschappelijke toepassing is in plaats van dat ik het uit mijn duim zuig. Maar bij Drenth en Sijtsema (2007) met het boek testtheorie stond voldoende achtergrondinformatie in :).
pi_128390866
Wie kan me helpen, ben een newbe wat betreft SPSS, alleen een practicum gehad vorig jaar tijdens Statistiek 1.
Onderzoekje gedaan, ouders van kinderen die speciaal onderwijs volgen hebben een vragenlijst gekregen. 72 vraagstellingen over probleemgedrag, waarbij de ouders aan moesten geven of hun kind op de "oude" school dit gedrag wel of niet vertoonden, en vervolgens aan moesten geven of dit gedrag op het speciaal onderwijs was afgenomen, gelijkgebleven of was toegenomen.
Ik wil dus weten of probleemgedrag afneemt (of toeneemt) door het volgen van speciaal onderwijs.

Ik heb echter geen flauw idee hoe dit in te voeren in SPSS. Ben begonnen per vraag 2 antwoordmogelijkheden te maken (bijvoorbeeld 1a gedrag werd wel of niet vertoond en 1b afgenomen, toegenomen of gelijkgebleven).
Bij nader inzien dacht ik dat ik wellicht beter alle antwoordcombinaties kon gaan verzamelen (wel en toegenomen, wel en afgenomen etc etc) en daar een waarde aan geven. Bij beide bestanden loop ik echter vast en ik zie door de bomen het bos niet meer.
Wie helpt me op weg?
pi_128481576
Mede SPSS'ers,

Ik zou graag mijn eigen statistische vaardigheden willen 'upgraden' op SPSS. Ik heb zelf een beetje ervaring met SPSS, maar deze is te verwaarlozen.

Ik ben daarom op zoek naar een boek/online document om SPSS te 'leren'. Welke raden jullie mij aan? Ik zocht graag eentje die mij alles weer leert vanaf het begin. Dus echt eentje die begint bij 0. Engels of Nederlands maakt mij niet veel uit, maar de voorkeur gaat uit naar het Nederlands.
#freefrederike
pi_128491198
quote:
4s.gif Op maandag 1 juli 2013 22:55 schreef PizzaMizza het volgende:
Mede SPSS'ers,

Ik zou graag mijn eigen statistische vaardigheden willen 'upgraden' op SPSS. Ik heb zelf een beetje ervaring met SPSS, maar deze is te verwaarlozen.

Ik ben daarom op zoek naar een boek/online document om SPSS te 'leren'. Welke raden jullie mij aan? Ik zocht graag eentje die mij alles weer leert vanaf het begin. Dus echt eentje die begint bij 0. Engels of Nederlands maakt mij niet veel uit, maar de voorkeur gaat uit naar het Nederlands.
Julie Pallant.
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
  dinsdag 2 juli 2013 @ 12:27:26 #48
100126 Maraca
#cijferfetisjist
pi_128494895
quote:
4s.gif Op maandag 1 juli 2013 22:55 schreef PizzaMizza het volgende:
Mede SPSS'ers,

Ik zou graag mijn eigen statistische vaardigheden willen 'upgraden' op SPSS. Ik heb zelf een beetje ervaring met SPSS, maar deze is te verwaarlozen.

Ik ben daarom op zoek naar een boek/online document om SPSS te 'leren'. Welke raden jullie mij aan? Ik zocht graag eentje die mij alles weer leert vanaf het begin. Dus echt eentje die begint bij 0. Engels of Nederlands maakt mij niet veel uit, maar de voorkeur gaat uit naar het Nederlands.
Mijn universiteit maakt gebruik van het boek van De Vocht. Daarnaast vind ik het boek van Andy Field erg handig.
Verily i say unto you; dost thou even hoist, brethren? - Jesus (Psalm 22)
pi_128495542
quote:
0s.gif Op dinsdag 2 juli 2013 12:27 schreef Maraca het volgende:

[..]

Mijn universiteit maakt gebruik van het boek van De Vocht. Daarnaast vind ik het boek van Andy Field erg handig.
Die van Field is inderdaad erg prettig, zeker als je meer van de achterliggende statistiek wil weten. Maar als je alleen een 'kookboek' wil, zou ik toch die van Pallant (of inderdaad De Vocht) aanraden.
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
pi_128519737
Oke, dank jullie wel. Kan ik trouwens veel oefenopgaven verwachten in de voorgestelde boeken?

Ik ga er snel eentje bestellen.
#freefrederike
pi_128531155
Niet direct SPSS, maar wel statistiek. Ik wil een powerberekening doen en ik kom er niet goed uit.

Ik heb een cohort van n cases groot. Ik wil hierin zoeken wat het verband is tussen eigenschap a (een dichotome variable) en b (iets wat ik op verschillende manieren kan meten, zowel dichotoom, ordinaal als kwantitatief). Ik weet echter nu niet wat de prevalentie van a of b wordt. Uiteraard weet ik uit de literatuur wel schattingen.

Hoe kom ik nu achter de power van deze studie? Want simpel toetsen van een verschil tussen 2 proporties gaat er van uit dat ik de afhankelijke variabele al weet. Maar dat is dus niet zo. Ik kan daar wel een schatting van maken, maar dan heb je de mogelijke variantie in deze variabele dus niet meegenomen in je powerberekening.
pi_128843049
Ik ben bezig met onder andere een survival analyse. Ik heb een dataset met daarin een per case een aantal verschillende events:
EventA_status (0: niet opgetreden 1:opgetreden) en EventA_date (datum van het event).

Nu wil ik een samengesteld eindpunt maken, namelijk of eventA of B of C (en zo nog een rij andere) zijn opgeteden. Het berekenen van Samengesteld_status (0: niet opgetreden 1:opgetreden) lukt me wel. Wat ik nu probeer te doen is het volgende.

Als Samengesteld_status=1, wil ik graag de datum van het eerste event dat bij dat samengestelde event hoort hebben (ik ben immers met een survival analysis bezig). SPSS moet dus bekijken welke van die EventX_date het eerst is en die datum overnemen in Samengesteld_date.

Hoe doe ik dat?
pi_128843350
De 'Date and Time Wizard' moet hier wel uitkomst kunnen bieden vermoed ik.
Aldus.
pi_128843641
quote:
2s.gif Op donderdag 11 juli 2013 18:45 schreef Z het volgende:
De 'Date and Time Wizard' moet hier wel uitkomst kunnen bieden vermoed ik.
Ik heb het al opgelost. Je kunt gewoon MIN gebruiken, ik dat dat die het niet zou doen voor data.

1
2
IF  (samengesteld_status=1) samengesteld_date=MIN(eventA_date,EventB_date,EventC_date,EventD_date).
EXECUTE.
pi_128844905
Hallo iedereen,

Ik loop tegen een probleem aan, ik ben nu bezig met mijn masterscriptie. Nu heb ik een multipele regressie uitgedraaid met 7 onafhankelijke variabelen (leeftijd, geslacht, opleidingsniveau ....EN functie). Hierbij bleek de categorische variabele functie significant te zijn. Functie bestaat uit drie categorieën, namelijk huishoudelijke hulp, verzorgende en verpleegkundige.

Nu wilde ik weten welke van deze functies een significant effect had op mijn y variabele, dus heb ik de categorieen als onafhankelijke variabele getest met dezelfde controlevariabelen Nu blijkt geen enkel van de drie functies (huishoudelijke hulp, verzorgende en verpleegkundige) een significant effect te hebben.

Hoe kan dit?

Doordat functie significant is, zou dat toch betekenen dat één van de functies significant zou moeten zijn.
pi_128878958
Nog een vraag, dit maal automatisering van berekeningen:

1
2
3
4
5
DO IF (ANY(Med1_use,1,2)).
COMPUTE Med1_start_days=DATEDIFF(Med1_start,dateindex,'days'). 
COMPUTE Med1_end_days=DATEDIFF(Med1_end,dateindex,'days').
END IF.
EXECUTE.

Ik wil deze berekening herhalen voor een set aan andere medicijnen. Helaas zijn die niet mooi genummerd, maar staat er in plaats van Med1 een naam van een medicament. Ik kan prima een lijst met de namen van die medicijnen maken. Is het mogelijk om deze functie uit te voeren waarbij de tekst Med1 in de syntax door steeds een ander woord wordt vervangen? Volgens mij moet dit met macro's, maar ik kom er slecht uit. Ik ben bang dat je alleen hele variabelen kunt vervangen en geen deel van een variabele.

[ Bericht 1% gewijzigd door dotKoen op 12-07-2013 17:27:09 ]
pi_128880697
Moet met 'do repeat' kunnen. Geen macro nodig.

http://publib.boulder.ibm(...)_repeat_overview.htm
Aldus.
pi_128880904
Thanks! Maar met een do repeat kun je toch alleen hele variabelen vervangen? Want hier had ik al aan gedacht, dan wordt het:

1
2
3
4
5
6
7
8
9
10
11
12
DO REPEAT med_use=Med1_use Med2_use         
/med_start=Med1_start Med2_start
/med_end=Med1_end Med2_end
/med_start_days=Med1_start_days Med2_start_days
/med_end_days= Med1_end_days Med2_end_days.
DO IF (ANY(med_use,1,2)).
COMPUTE med_start_days=DATEDIFF(med_start,dateindex,'days'). 
COMPUTE med_end_days=DATEDIFF(med_end,dateindex,'days').
End IF.

END REPEAT PRINT. 
EXECUTE.
Probleem is dat ik dan nog wel 4 maal variabelen moet definieren. Ik wil die stap (aangezien het om een heleboel variabelen gaat) ook elimineren.

[ Bericht 50% gewijzigd door dotKoen op 12-07-2013 18:30:31 ]
pi_128883642
Heb inmiddels gevonden hoe het met een macro moet:

1
2
3
4
5
6
7
8
9
10
11
DEFINE !ComputeDays (!POSITIONAL !CMDEND) 
!DO !I !IN (!1)
DO IF !CONCAT("(ANY(",!I,"_use,1,2))").
compute !CONCAT(!I,"_start_days") = DATEDIFF(!CONCAT(!I,"_start"),dateindex,'days'). 
compute !CONCAT(!I,"_end_days") = DATEDIFF(!CONCAT(!I,"_end"),dateindex,'days'). 
END IF.
!DOEND 
!ENDDEFINE. 

!ComputeDays Med1 Med2 Med3.
Exe.
pi_128903188
Puik werk. Ik vind de SPSS macro-taal gruwelijk. In tegenstelling tot bijvoorbeeld Excel VB.

Ik ben me aan het verdiepen in R, gebruikt iemand hier dat?
Aldus.
pi_128944591
quote:
14s.gif Op zaterdag 13 juli 2013 13:26 schreef Z het volgende:
Puik werk. Ik vind de SPSS macro-taal gruwelijk. In tegenstelling tot bijvoorbeeld Excel VB.

Ik ben me aan het verdiepen in R, gebruikt iemand hier dat?
Nee, maar staat wel op mijn lijstje om eens te leren...
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
pi_129001298
Voor mijn scriptie ben ik bezig verschil van proportie´s (variabele zijn dummyvariabelen) te vergelijken tussen 5 groepen. Dit deed ik eerst met een t-toets, echter kreeg ik als feedback dat dit niet mag, omdat ze niet continu zijn en niet-normaal verdeeld. Daarom kreeg ik als advies om met behulp van proportietoetsen de gemiddelden te toetsen.

Voorbeeld: de proportie gehuwden in groep 1 vergelijken met proportie gehuwden in groep 2, proportie gehuwden in groep 1 vergelijken met proportie gehuwden in groep 3, etc.

De vraag is heel simpel: hoe voer ik zo'n toets uit met SPSS?
pi_129005957
Hallo allemaal,

Ik ben op dit moment bezig met de analyse voor mijn masterscriptie in SPSS, en heb iets waar ik niet helemaal uitkom. In mijn (veronderstelde) model hebben twee onafhankelijke variabelen (A & B) invloed op een afhankelijke variabele. Deze relatie wordt gemodereerd door twee andere variabelen (C&D).

Nu wil ik een hierarchische regressieanalyse uitvoeren, waarbij drie blokken worden gebruikt. In het eerste blok zijn de controlvariabelen (leeftijd, geslacht etc.) opgenomen, in het tweede blok de twee onafhankelijke variabelen (A&B) en in het derde blok de modererende variabelen. Deze modererende variabelen worden opgenomen door 4 interactievariabelen te maken (A*C, A*D, B*C, B*D). Mijn vraag is of de twee modererende variabelen (C&D) als zelfstandige variabelen in het tweede blok moeten worden opgenomen (sámen met A&B), en daarnaast als interactievariabelen in het derde blok? Op deze manier toets je dus ook de rechtstreekse invloed van de modererende variabelen op de afhankelijke variabele.

Ik dacht zelf eigenlijk dat dit niet nodig was, omdat mijn model hier niet vanuit gaat. Ik heb echter laatst een gesprek met een docent (die nu afwezig is }:| ) gehad, en hij gaf aan dat het wel nodig was (terwijl ik zei dat ik in mijn model geen rekening gehouden had met een rechtstreekse invloed). Punt is dat ik nu niet meer zeker weet of ik het goed begrepen heb :'). Ik heb een aantal andere scripties (min of meer verbonden aan hetzelfde project) bekeken waarbij ook een hierarchische regressieanalyse met moderators werd uitgevoerd, en daar werd in principe ook geen rechtstreeks effect van de modererende variabele(n) op de afhankelijke getest..
pi_129252418
Hallo

Ik heb een (denk ik) simpele SPSS vraag. Uit SPSS komen een aantal correlaties en Pearsons R verbanden die significant zouden moeten zijn (P < 0,05). Maar wanneer is er sprake van een sterk verband; of te wel vanaf welke Pearsons R waarde is het verband redelijk sterk- sterk te noemen, zodat je echt kan spreken van een zeer waarschijnlijk duidelijk verband.

Als voorbeeld heb ik analyse gedaan met als achtergrondvariabel Gender (man/vrouw als antwoordmogelijkheden).
Bij een van de variabelen is de Pearsons R waarde 0.460 en de Sig 2-tailed P-waarde: 0.000

Bij een andere achtergrondvariabele krijg ik Pearsons R waarden als 0.686 en Sig 2-tailed P waarde: 0.000

Ook krijg ik regelmatig wel een P waarde kleiner dan 0,05, maar de Pearsons R waarde schommelt dan rond de 0.2/0.3.

Mijn eigen conclusie zou zijn dat de verbanden met een Pearsons R waarde rond de 0,2/0,3 er wel zijn, maar dat deze niet heel erg sterk is. En dus statistisch niet goed 'hard' te maken. En de eerste 2 voorbeelden redelijk sterke verbanden zijn. Maar ik twijfel erg over de eerste twee voorbeelden.

Ik hoop dat het beetje duidelijk is en iemand mij kan helpen!
Thanks a lot!
  dinsdag 23 juli 2013 @ 19:14:17 #65
306949 dude1986
Always bored...
pi_129262646
handig topic voor mn scriptie binnenkort.
pi_129284154
quote:
0s.gif Op dinsdag 23 juli 2013 13:30 schreef edh88 het volgende:
Hallo

Ik heb een (denk ik) simpele SPSS vraag. Uit SPSS komen een aantal correlaties en Pearsons R verbanden die significant zouden moeten zijn (P < 0,05). Maar wanneer is er sprake van een sterk verband; of te wel vanaf welke Pearsons R waarde is het verband redelijk sterk- sterk te noemen, zodat je echt kan spreken van een zeer waarschijnlijk duidelijk verband.

Als voorbeeld heb ik analyse gedaan met als achtergrondvariabel Gender (man/vrouw als antwoordmogelijkheden).
Bij een van de variabelen is de Pearsons R waarde 0.460 en de Sig 2-tailed P-waarde: 0.000

Bij een andere achtergrondvariabele krijg ik Pearsons R waarden als 0.686 en Sig 2-tailed P waarde: 0.000

Ook krijg ik regelmatig wel een P waarde kleiner dan 0,05, maar de Pearsons R waarde schommelt dan rond de 0.2/0.3.

Mijn eigen conclusie zou zijn dat de verbanden met een Pearsons R waarde rond de 0,2/0,3 er wel zijn, maar dat deze niet heel erg sterk is. En dus statistisch niet goed 'hard' te maken. En de eerste 2 voorbeelden redelijk sterke verbanden zijn. Maar ik twijfel erg over de eerste twee voorbeelden.

Ik hoop dat het beetje duidelijk is en iemand mij kan helpen!
Thanks a lot!
Begrijp ik je goed als ik zeg dat je een correlatie hebt berekend met een dichtome variabele? :')
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_129287835
quote:
0s.gif Op woensdag 24 juli 2013 11:24 schreef crossover het volgende:

[..]

Begrijp ik je goed als ik zeg dat je een correlatie hebt berekend met een dichtome variabele? :')
Ahh ik begrijp dat ik een grote fout heb gemaakt??

Het is voor mij zeker 6 jaar geleden dat ik beetje basis spss heb gehad en moet voor een onderzoek op mn werk kijken of er relaties liggen dus bepaalde variabelen ipv puur frequentie. Hiervoor alleen kwalitatieve onderzoeken verricht, dus het is erg diep weggezakt.

Ik heb wel onthouden dat je alleen onafhankelijk met een afhankelijke kan vergelijken (toch?). En dus niet afhankelijk met afhankelijk (of als dat wel zou kunnen is het vast erg ingewikkeld;)). Verder heb ik inderdaad 1 dichotome variabele gebruikt als onafhankelijke variabel; gender. De andere achtergrondvariabelen bevatten meerdere keuzemogelijkheden (minimaal 4). Dit geldt over het algemeen ook voor de afhankelijke variabelen. Er zijn daarbij ook afhankelijke variabelen met 2 antwoordmogelijkheden (missing niet als keuzemogelijkheid gezien dan!)
pi_129289868
Kennis van statistiek en kennis van SPSS hebben niet zoveel met elkaar te maken. Zoek eerst uit wat en hoe je moet toetsen, en start daarna pas SPPS op, het wijst zich dan zo ongeveer vanzelf.
Aldus.
pi_129295582
Ik heb kennis van beide, dus daar zal het niet aan liggen. Het is alleen ver weggezakt. Ik snap dat er een verschil tussenzit, maar ik had het hier over spss en de output ervan. Daarna vroeg ik of het niet mogelijk was dat ik een dichotome variabele kon 'vergelijken' met een niet-dichotome variabelen.

Ik moet kijken of er eventuele relaties liggen tussen een aantal achtergrondvariabelen zoals gezinssamenstelling, geboorteland etc. en een aantal afhankelijke variabelen zoals gezondheidsbeleving en hulp bij bijv. het bereiden van een maaltijd.

Vandaar de analyse in spss met correlaties. Dat is het enige wat gevraagd wordt. Heb mij wat in SPSS verdiept en dit type analyse zou t beste passen. Ik hoef geen hypothese te testen oid.
pi_129295621
Regressie met dummies moet je denk ik hebben.
Aldus.
pi_129295929
ok, dit moet ik dan bij gender toepassen? 1 recode man en 1 recode vrouw?

Wat is de reden dat ik geen correlatie gebruiken? (analyze > correlate > bivariate)Ik snap dat regressie kan, maar ben benieuwd waarom ik dus t fout heb gedaan zodat ik de fout niet nog een keer maak.
pi_129295972
ik lees hier dat regressie is voor voorspellingen? Maar dan hoeft dus niet
pi_129590965
Hoi ik ben met SPSS bezig voor mijn thesis. Ik heb het basishandboek voor SPSS 21, maar kom hier niet helemaal uit. Ik heb een aantal vragen waarin ze kunnen kiezen uit een paar antwoorden, waaronder ook het antwoord 'anders' en zij kunnen hier dan een toelichting bij schrijven. Ik heb alleen geen flauw idee hoe ik die toelichting koppel aan het antwoord 'anders' in SPSS. Iemand die mij kan helpen?
pi_129592528
Wat wil je uit die string anders analyseren? Wil je die antwoorden als categorale variabele toevoegen?
pi_129595010
quote:
0s.gif Op woensdag 24 juli 2013 16:53 schreef edh88 het volgende:
ik lees hier dat regressie is voor voorspellingen? Maar dan hoeft dus niet
Regressies zijn waarvoor je ze wil gebruiken. Regressies hoeven in principe niets met voorspellingen te maken hebben. Alleen, mocht je het willen, kun je er wel voorspellingen mee maken.
In jouw geval is een regressie waarschijnlijk the way to go.
Beneath the gold, bitter steel
pi_129643197
quote:
14s.gif Op zaterdag 13 juli 2013 13:26 schreef Z het volgende:
Puik werk. Ik vind de SPSS macro-taal gruwelijk. In tegenstelling tot bijvoorbeeld Excel VB.

Ik ben me aan het verdiepen in R, gebruikt iemand hier dat?
Ik gebruik R, nog niet als vervanging van SPSS, mar op dit moment alleen om dingen te doen die in SPSS minder gemakkelijk zijn, multilevels / mixed models en data simulaties.

Pas trouwens wel op dat er blijkbaar een verschil zit tussen de standaard anova resultaten van SPSS en R ben ik laatst achter gekomen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129643239
quote:
0s.gif Op woensdag 24 juli 2013 11:24 schreef crossover het volgende:

[..]

Begrijp ik je goed als ik zeg dat je een correlatie hebt berekend met een dichtome variabele? :')
Hoezo kan dat niet?

quote:
2s.gif Op woensdag 24 juli 2013 16:40 schreef Z het volgende:
Regressie met dummies moet je denk ik hebben.
Een regressie met dummies is in essentie een correlatie..
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129643848
quote:
0s.gif Op zaterdag 3 augustus 2013 11:56 schreef oompaloompa het volgende:

Pas trouwens wel op dat er blijkbaar een verschil zit tussen de standaard anova resultaten van SPSS en R ben ik laatst achter gekomen.
Op wat voor manier? De uitkomsten of de vorm van de output?
pi_129643891
quote:
0s.gif Op zaterdag 3 augustus 2013 12:30 schreef Operc het volgende:

[..]

Op wat voor manier? De uitkomsten of de vorm van de output?
Ik heb me er niet echt in v erdiept maar een collega van me wel, weet niet precies wat het verschil is. Er zijn blijkbaar 4 manieren om sums of squares te berekenen, spss gebruikt manier 3(4?) en R 4(3?).

edit; here we go http://myowelt.blogspot.n(...)ults-in-r-as-in.html

Ik zat er dus concreet helemaal naast maar globaal klopte wat ik zei :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129644644
quote:
0s.gif Op zaterdag 3 augustus 2013 12:32 schreef oompaloompa het volgende:

[..]

Ik heb me er niet echt in v erdiept maar een collega van me wel, weet niet precies wat het verschil is. Er zijn blijkbaar 4 manieren om sums of squares te berekenen, spss gebruikt manier 3(4?) en R 4(3?).

edit; here we go http://myowelt.blogspot.n(...)ults-in-r-as-in.html

Ik zat er dus concreet helemaal naast maar globaal klopte wat ik zei :P
Bedankt! Interessante blogpost over een onderwerp waar ik echt nog nooit bij stil had gestaan. :)
pi_129644731
quote:
1s.gif Op zaterdag 3 augustus 2013 13:13 schreef Operc het volgende:

[..]

Bedankt! Interessante blogpost over een onderwerp waar ik echt nog nooit bij stil had gestaan. :)
Voor mij was het ook echt toeval dat mijn collega het vertelde die er ook per toeval achter was gekomen. Hij had een power berekening uitgevoerd (en gepubliceerd) waarna iemand anders hem er op attendeerde dat zijn power berekening andere uitkomsten had dan die van hem en daarna door uit te zoeken hoe dat kwam, kwam hij op dit verschil terecht.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129644845
quote:
0s.gif Op zaterdag 3 augustus 2013 13:17 schreef oompaloompa het volgende:

[..]

Voor mij was het ook echt toeval dat mijn collega het vertelde die er ook per toeval achter was gekomen. Hij had een power berekening uitgevoerd (en gepubliceerd) waarna iemand anders hem er op attendeerde dat zijn power berekening andere uitkomsten had dan die van hem en daarna door uit te zoeken hoe dat kwam, kwam hij op dit verschil terecht.
Zaten er grote verschillen in die powerberekening? (Als in: veranderde de conclusie?)

Het stuk over dat A+B andere uitkomsten geeft dan B+A vond ik weleen beetje onlogisch, maar dat hoofdeffecten niet altijd zinvol zijn bij interacties is wel iets om rekening mee te houden. :)
pi_129644929
quote:
1s.gif Op zaterdag 3 augustus 2013 13:21 schreef Operc het volgende:

[..]

Zaten er grote verschillen in die powerberekening? (Als in: veranderde de conclusie?)

Het stuk over dat A+B andere uitkomsten geeft dan B+A vond ik weleen beetje onlogisch, maar dat hoofdeffecten niet altijd zinvol zijn bij interacties is wel iets om rekening mee te houden. :)
Ja in plaats van 62 mensen had je er 90+ nodig. Nogal relevant als het om een nulvinding in een replicatie gaat...
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129645536
quote:
0s.gif Op zaterdag 3 augustus 2013 11:58 schreef oompaloompa het volgende:

[..]

Hoezo kan dat niet?

Omdat je drie assumpties schendt. Je hebt namelijk geen normaal verdeelde variabelen, er is geen lineaire samenhang en de variabelen zijn niet (beide) op ratio/interval schaal.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_129645700
quote:
0s.gif Op zaterdag 3 augustus 2013 13:24 schreef oompaloompa het volgende:

[..]

Ja in plaats van 62 mensen had je er 90+ nodig. Nogal relevant als het om een nulvinding in een replicatie gaat...
Ah, ja dat is zuur inderdaad.
pi_129645875
quote:
0s.gif Op zaterdag 3 augustus 2013 13:52 schreef crossover het volgende:

[..]

Omdat je drie assumpties schendt. Je hebt namelijk geen normaal verdeelde variabelen, er is geen lineaire samenhang en de variabelen zijn niet (beide) op ratio/interval schaal.
Maar dat hoeft niet voor een correlatie, je kunt gewoon een correlatie tussen een dicho + continuous doen hoor, alleen geen pearsons
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129645942
quote:
0s.gif Op zaterdag 3 augustus 2013 14:10 schreef oompaloompa het volgende:

[..]

Maar dat hoeft niet voor een correlatie, je kunt gewoon een correlatie tussen een dicho + continuous doen hoor, alleen geen pearsons
Ik ging er inderdaad even vanuit dat het over Pearsons r ging, maar ik zou ook geen spearman doen, eigenlijk. Is het niet logischer om een kruistabel te maken en dan met bijv chi2 op significantie te toetsen?
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_129646121
quote:
0s.gif Op zaterdag 3 augustus 2013 14:13 schreef crossover het volgende:

[..]

Ik ging er inderdaad even vanuit dat het over Pearsons r ging, maar ik zou ook geen spearman doen, eigenlijk. Is het niet logischer om een kruistabel te maken en dan met bijv chi2 op significantie te toetsen?
Hmm ligt er aan wat je wilt doen denk ik. Ik reageerde omdat ik een paper heb waar ik dichotome correlaties gebruik en reviewers geen kritiek hadden op de correlatie, daarom ben ik het ook uit gaan zoeken. In mijn geval is het niet zo dat ik een echt theoretische of statistische vraag heb, maar meer iets dat theoretisch gecorreleerd zou moeten zijn, als een soort controle dus. Als je iets wilt zeggen over de sterkte van een effect op een ander effect kun je vrij weinig met een correlatie en dan zou een regressie / anova beter zijn. Weet eigenlijk niet of een correlatie twussen twee dichotome maten kan, dan zou ik eigenlijk altijd een chi-square doen denk ik...
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129714340
Thanks everyone :) Naar alle waarschijnlijkheid hoef ik toch geen analyses te doen *zucht haha*.

Nog 1 vraagje; 1 van de vragen telt ongeveer 30 missings. Nu zei een collega dat hij gehoord had dat je de data in spss kon veranderen. Dus dat het laagste aantal respons als 100% wordt genomen. (het gaat om 1 vraag bestaande uit veel onderdelen, en laagste respons bij 1 van de onderdelen is 52, terwijl er 81 respondenten meededen). Anyone?? Heb al wat gegoogled maar kom er zo 1,2,3 niet uit XD
pi_129729593
quote:
0s.gif Op maandag 5 augustus 2013 14:08 schreef edh88 het volgende:
Thanks everyone :) Naar alle waarschijnlijkheid hoef ik toch geen analyses te doen *zucht haha*.

Nog 1 vraagje; 1 van de vragen telt ongeveer 30 missings. Nu zei een collega dat hij gehoord had dat je de data in spss kon veranderen. Dus dat het laagste aantal respons als 100% wordt genomen. (het gaat om 1 vraag bestaande uit veel onderdelen, en laagste respons bij 1 van de onderdelen is 52, terwijl er 81 respondenten meededen). Anyone?? Heb al wat gegoogled maar kom er zo 1,2,3 niet uit XD
Je moet zoeken op listwise / pairwise deletion.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_129732826
quote:
0s.gif Op maandag 5 augustus 2013 21:02 schreef crossover het volgende:

[..]

Je moet zoeken op listwise / pairwise deletion.
Thanks! Ik ga t bekijken.. ziet er zo op t eerste oog ingewikkeld uit!
pi_129733061
Een andere optie is om gewoon al die observaties helemaal uit te zetten door alleen cases te selecteren die op die afhankelijke >= 1 hebben bv.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129744149
quote:
0s.gif Op maandag 5 augustus 2013 22:11 schreef oompaloompa het volgende:
Een andere optie is om gewoon al die observaties helemaal uit te zetten door alleen cases te selecteren die op die afhankelijke >= 1 hebben bv.
Hoe doe ik dat dan?

De coderingen van die vraag zijn 1= ja, 2 = nee, 99= missing.
Ik moet dus de 2-tjes eruit filteren En het laatste aantal 1 (=52 in mijn geval) als 100% nemen.
pi_129744179
data -> select cases, select if (variabele) = 1
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129744198
quote:
0s.gif Op dinsdag 6 augustus 2013 08:47 schreef oompaloompa het volgende:
data -> select cases, select if (variabele) = 1
Top super bedankt!!! :)
pi_129744201
quote:
0s.gif Op dinsdag 6 augustus 2013 08:48 schreef edh88 het volgende:

[..]

Top super bedankt!!! :)
Dat was wel uit mn hoofd dus de knopjes kunnen iets anders heten :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129744253
quote:
0s.gif Op dinsdag 6 augustus 2013 08:49 schreef oompaloompa het volgende:

[..]

Dat was wel uit mn hoofd dus de knopjes kunnen iets anders heten :P
Knopjes kloppen wel :P Maar wat moet ik nu selecteren?

Ben er achter dat ik niet meer dan 1 variabel tegelijk kan wijzigen (helaas, want het zijn er stuk of 30 die ik een ander 100 procent ding moeten hebben ;)).

Maar ik kan kiezen uit:
- all cases
- if condition is statisfied
- random sample of cases
- based on time or case range
- use filter variable

Mijn niet-spss-hoofd zegt optie 1 en 3 sowieso niet.

En voor output staat er de keuze:
- filter out unselected cases
- copy selected cases to a new dataset
- delete unselected cases

Ik gok optie 1?
pi_129744304
quote:
0s.gif Op dinsdag 6 augustus 2013 08:53 schreef edh88 het volgende:

[..]

Knopjes kloppen wel :P Maar wat moet ik nu selecteren?

Ben er achter dat ik niet meer dan 1 variabel tegelijk kan wijzigen (helaas, want het zijn er stuk of 30 die ik een ander 100 procent ding moeten hebben ;)).

Maar ik kan kiezen uit:
- all cases
- if condition is statisfied
- random sample of cases
- based on time or case range
- use filter variable

Mijn niet-spss-hoofd zegt optie 1 en 3 sowieso niet.

En voor output staat er de keuze:
- filter out unselected cases
- copy selected cases to a new dataset
- delete unselected cases

Ik gok optie 1?
Als het om 1 variabele gaat kies je: select cases if condition is satisfied en onder dat knopje geef je aan (variabelenaam) = 1

dan kies je filter out unselected cases want die wil je niet gebruiken.

Als het om meerdere variabelen gaat kun je of dat in de eerste versie toevoegen dootr bv (var1) = 1 & (var2) = 1 of een filter variabele gebriken en die handmatig op 1 of 0 te zetten.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129744428
quote:
0s.gif Op maandag 5 augustus 2013 21:02 schreef crossover het volgende:

[..]

Je moet zoeken op listwise / pairwise deletion.
IK denk dat pairwise deletion een betere optie is. Het gaat om 1 vraag die een lage repons heeft, en niet zozeer een aantal respondenten.

Ik heb in SPSS gevonden: analyze > analyze missing values > daar heb ik de variabelen geselecteerd waar het om gaat en verplaatst naar quantitative variables. > pairwise deletion geselecteerd.

Ik krijg een mega output maar weet niet goed wat ik met die output moet én of ik het wel goed gedaan heb zo. Ik kan nog dingen bij 'patterns' selecteren:
- tabulated cases, grouped by missing value patterns (omit patterns with less than .. % of the cases)
- cases with missing values, sorted by missing values pattersn/
- all cases, optionally sorted by selected variable
pi_129790832
Hoi experts,

Ik heb een model waarin 2 independent variables invloed hebben op Mediator 1, die weer via Mediator 2 invloed heeft op mijn dependent variabele. Om het nog gecompliceerder te maken is er ook nog een moderator die effect heeft op de relatie tussen mediator 2 en de dependent variable.

Weet iemand of je dit model gewoon met lineaire regressie kan meten in SPSS? Is het een kwestie van gewoon alle onafhankelijke variabelen en interactievariabelen in een keer bij de Independents invoeren in het menu?

Thanks
pi_129791560
quote:
0s.gif Op woensdag 7 augustus 2013 14:31 schreef murdock88 het volgende:
Hoi experts,

Ik heb een model waarin 2 independent variables invloed hebben op Mediator 1, die weer via Mediator 2 invloed heeft op mijn dependent variabele. Om het nog gecompliceerder te maken is er ook nog een moderator die effect heeft op de relatie tussen mediator 2 en de dependent variable.

Weet iemand of je dit model gewoon met lineaire regressie kan meten in SPSS? Is het een kwestie van gewoon alle onafhankelijke variabelen en interactievariabelen in een keer bij de Independents invoeren in het menu?

Thanks
zijn de twee independents main effecten?

Het kan in principe met een regressie alhoewel je daarmee niet direct mediatie kunt bewijzen. Afhankelijk van de doelgroep kan het gemakkelijker en beter zijn om gewoon een padmodel te gebruiken. Hoop trouwens wel dat je honderden observaties hebt als elk stukje van je model significant moet zijn :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129796147
Weet iemand toevallig wat je moet doen als je bij een multinominale regressie analyse problemen hebt met je hessian-matrix?
pi_129796235
quote:
0s.gif Op woensdag 7 augustus 2013 16:51 schreef Brembo het volgende:
Weet iemand toevallig wat je moet doen als je bij een multinominale regressie analyse problemen hebt met je hessian-matrix?
Wat is het probleem dat je krijgt?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129796822
quote:
0s.gif Op woensdag 7 augustus 2013 16:54 schreef oompaloompa het volgende:

[..]

Wat is het probleem dat je krijgt?
"Unexpected singularities in the Hessian matrix are encountered. This indicates that either some predictor variables should be excluded or some categories should be merged."

Volgens mij komt het omdat er tussen een variabele 0 correlerende items zijn dus kan het ook niks berekenen.
Als alternatief heb ik nu gekozen voor forward en zijn de resultaten wel goed :). Hij gooit er wel een variabele uit, maar dat is niet erg.
pi_129797554
quote:
0s.gif Op woensdag 7 augustus 2013 17:08 schreef Brembo het volgende:

[..]

"Unexpected singularities in the Hessian matrix are encountered. This indicates that either some predictor variables should be excluded or some categories should be merged."

Volgens mij komt het omdat er tussen een variabele 0 correlerende items zijn dus kan het ook niks berekenen.
Als alternatief heb ik nu gekozen voor forward en zijn de resultaten wel goed :). Hij gooit er wel een variabele uit, maar dat is niet erg.
Er stond mij vaag iets bij dat het juist het tegenovergestelde was, een correlatie van 1 waardoor er geen variantie is en niets berekend kan worden, maar ik moet toegeven dat ik zoiets nog nooit in het echt mee heb gemaakt en dus alleen een keer ergens in een les wat over gehoord heb. Goed om te horen dat je in ieder geval een oplossing hebt gevonden!
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129799208
quote:
0s.gif Op woensdag 7 augustus 2013 14:31 schreef murdock88 het volgende:
Hoi experts,

Ik heb een model waarin 2 independent variables invloed hebben op Mediator 1, die weer via Mediator 2 invloed heeft op mijn dependent variabele. Om het nog gecompliceerder te maken is er ook nog een moderator die effect heeft op de relatie tussen mediator 2 en de dependent variable.

Weet iemand of je dit model gewoon met lineaire regressie kan meten in SPSS? Is het een kwestie van gewoon alle onafhankelijke variabelen en interactievariabelen in een keer bij de Independents invoeren in het menu?

Thanks
Amos is je vriend. Of STATA. Of Lisrel. Of EQS. Maar niet SPSS.
Je hebt het hier over mediated moderation.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_129800471
quote:
0s.gif Op woensdag 7 augustus 2013 18:19 schreef crossover het volgende:

[..]

Amos is je vriend. Of STATA. Of Lisrel. Of EQS. Maar niet SPSS.
Je hebt het hier over mediated moderation.
moderated mediation :P

Als murdockhet goed uitgelegd heeft is het moderated mediation en dan kan het gewoon met SPSS.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129898815
Nog bedankt voor de antwoorden!!! Ga het niet in een model meten maar in kleine delen. Heb nog 1 vraag: Heb 4 control variables gemeten, maar was er tot nu toe 1 vergeten toe te voegen aan het model. Wat nu blijkt is dat het model met 3 control variabelen significant is, maar met de 4e erbij niet meer. Dit terwijl die 4e control variable in geen enkel model ook maar een beetje significant is (scores van .650 enzo).

Mag je die controle variabele dan weghalen met de reden dat ie niks toevoegt en je model onderuit haalt? Het gaat (uiteraard;)) om een scriptie btw.
pi_129905856
quote:
0s.gif Op zaterdag 10 augustus 2013 14:33 schreef murdock88 het volgende:
Nog bedankt voor de antwoorden!!! Ga het niet in een model meten maar in kleine delen. Heb nog 1 vraag: Heb 4 control variables gemeten, maar was er tot nu toe 1 vergeten toe te voegen aan het model. Wat nu blijkt is dat het model met 3 control variabelen significant is, maar met de 4e erbij niet meer. Dit terwijl die 4e control variable in geen enkel model ook maar een beetje significant is (scores van .650 enzo).

Mag je die controle variabele dan weghalen met de reden dat ie niks toevoegt en je model onderuit haalt? Het gaat (uiteraard;)) om een scriptie btw.
correleert die 4e variabele sterk met een van de variabelen waarin je geinteresseerd bent?

Is je verklaarde variantie significant groter als je 4 toevoegt? (model test)
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_129942132
quote:
0s.gif Op woensdag 7 augustus 2013 18:59 schreef oompaloompa het volgende:

[..]

moderated mediation :P

Als murdockhet goed uitgelegd heeft is het moderated mediation en dan kan het gewoon met SPSS.
Oh ja. ik haal ze wel vaker door elkaar :')
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_130228915
Waarom kan SPSS nu weer geen confidence intervals berekenen voor niet-parametrische tests :(. Geen zin om mijn hele bestand in GraphPad over te zetten of zo.
pi_130238893
Dit is vast een hele domme vraag, maar goed. Ik vergelijk veel proporties met elkaar, waarbij ik de een chi-kwadraat toets (meestal Pearson) om het verschil tussen de proporties duidelijk te maken. In SPSS gebruik ik daar crosstabs voor. Waar ik niet uitkom is of er ook een manier is om het 95%-betrouwbaarheidsinterval voor het ware verschil in proporties direct door SPSS te laten berekenen. Het lijkt er niet op, maar dat vind ik zo gek?

Nu bereken ik dat handmatig, maar dat is weinig efficiënt.
pi_130307247
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_130309355
quote:
Ik weet wat de beperkingen zijn, maar in SPSS kun je ze in het geheel niet berekenen, terwijl andere programma's dat wel kunnen (waarbij je het CI dat het dichtst bij 95% ligt krijgt).
pi_130476330
Hallo allemaal,

Ik ben aan het kijken of de pairwise deletion een optie is voor mijn probleem. (1 vraag uit de enquête bestaande uit meer dan 30 onderdelen (allerlei voorzieningen en daar verschillende vragen over. Deze vraag heeft gemiddeld 20-30 missings per onderdeel, totaal zijn er 81 enquêtes meegenomen in de verwerking). Nu was de vraag of het mogelijk was om het laagste aantal respons (54) als 100% te nemen. Zodat het een beter overzicht zou geven. tip was om pairwise deletion te doen.

Ik heb m inmiddels in SPSS gevonden en ook wat statistiek/SPSS boeken hierover doorgenomen, maar er wordt niet duidelijk uitgelegd hoe je de juiste keuzes maken/dingen aanvinkt in SPSS.

Als ik kies voor pairwise deletion krijg ik de volgende vragen:
- als quantitative variables selecteer ik de variabelen waar wat aan moet veranderen (die ene vraag dus).
- ik klik pairwise aan
- en dan ... patterns/ descriptives?? Bij patterns krijg ik de volgende keuzes:
1. tabulated cases, grouped by missing values. Omit patterns with less than .. % of the cases. Sort variabeles by missing value pattern
2. cases with missing values, sorted by missing values pattersn. Sort variabeles by missing value pattern
3. all cases optionally sorted by selected varibale.

Ik zou zelf denken optie 1. maar hoeveel % dan?

Thanks again!
pi_131472402
Hoe zet ik in de grafiek een * als een verschil significant is? Ik zie met ANOVA dat p <0.05 is alleen hoe zet ik dat vervolgens in de grafiek?

[ Bericht 85% gewijzigd door MaxC op 23-09-2013 11:08:44 ]
If I'm sad, I stop being sad and be awesome instead. True story
pi_131500308
quote:
0s.gif Op maandag 23 september 2013 11:02 schreef MaxC het volgende:
Hoe zet ik in de grafiek een * als een verschil significant is? Ik zie met ANOVA dat p <0.05 is alleen hoe zet ik dat vervolgens in de grafiek?
Met een streepje + sterretje of de exacte p-waardes.

zoals hier met exacte waardes:
met sterretjes:

edit: of bedoel je echt daadwerkelijk hoe je een sterretje in een grafiek zet, maar dat lijkt me niet :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131501931
Ja precies dat 2e :P

Lukt me sowieso niet echt om mooie grafieken te maken met SPSS
If I'm sad, I stop being sad and be awesome instead. True story
pi_131503877
quote:
0s.gif Op dinsdag 24 september 2013 00:46 schreef MaxC het volgende:
Ja precies dat 2e :P

Lukt me sowieso niet echt om mooie grafieken te maken met SPSS
Daarom maak je ze ook niet met SPSS :P

Simpelste is excel, naar powerpoint copy pasten en lijntjes, sterretjes etc toevoegen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  zondag 29 september 2013 @ 15:06:48 #120
314761 sjoneah
Terecht. In één woord terecht.
pi_131673980
Weet iemand een oplossing voor mijn probleem?

We zijn bezig met een experiment waarbij een aantal onderzoekssessies gepland staan. Voor elke sessie moeten we vooraf een analyse maken om de groepen te verdelen.

Daarbij hercoderen wij een aantal variabelen waarna we vervolgens een berekening hierop los gooien en het resultaat in een nieuwe variabele zetten. Op basis van die laatste variabel maken wij de groepsindeling.

De respondenten kiezen trouwens in de vragenlijst een sessie waarop ze willen komen en een dag van te voren gooien wij nu steeds een sessie dicht zodat die niet gekozen kan worden waarna we vervolgens de bovenstaande analyse maken.

Voor morgen moet er weer een analyse gemaakt worden maar omdat er weer nieuwe respons bij zit krijg ik een nieuw .sav bestand vanuit de vragenlijst/Qualtrics. Als ik deze kopieer en plak in SPSS dan wordt deze data niet automatisch opnieuw gehercodeerd en de nieuwe variabele wordt ook niet opgesteld voor de nieuwe later ingevoegde data.

Weet iemand een optie waarmee ik dit wel kan bereiken? Dus dat bij het invoegen van nieuwe data de hercodering/variabele opstellen wel gewoon wordt uitgevoerd?

Alvast bedank!
pi_131674374
quote:
0s.gif Op zondag 29 september 2013 15:06 schreef sjoneah het volgende:
Weet iemand een oplossing voor mijn probleem?

We zijn bezig met een experiment waarbij een aantal onderzoekssessies gepland staan. Voor elke sessie moeten we vooraf een analyse maken om de groepen te verdelen.

Daarbij hercoderen wij een aantal variabelen waarna we vervolgens een berekening hierop los gooien en het resultaat in een nieuwe variabele zetten. Op basis van die laatste variabel maken wij de groepsindeling.

De respondenten kiezen trouwens in de vragenlijst een sessie waarop ze willen komen en een dag van te voren gooien wij nu steeds een sessie dicht zodat die niet gekozen kan worden waarna we vervolgens de bovenstaande analyse maken.

Voor morgen moet er weer een analyse gemaakt worden maar omdat er weer nieuwe respons bij zit krijg ik een nieuw .sav bestand vanuit de vragenlijst/Qualtrics. Als ik deze kopieer en plak in SPSS dan wordt deze data niet automatisch opnieuw gehercodeerd en de nieuwe variabele wordt ook niet opgesteld voor de nieuwe later ingevoegde data.

Weet iemand een optie waarmee ik dit wel kan bereiken? Dus dat bij het invoegen van nieuwe data de hercodering/variabele opstellen wel gewoon wordt uitgevoerd?

Alvast bedank!
Geen oplossing, maar beter dan handmatig is je veranderingen via de syntax doen, Dan moet je nog steeds elke keer iets aanpassen, maar is het slechts 1 knop.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  zondag 29 september 2013 @ 15:37:16 #122
314761 sjoneah
Terecht. In één woord terecht.
pi_131674932
Bedankt voor dit snelle antwoord! Door jouw oplossing ben ik eens even gaan knutselen met die Syntax functie van SPSS, dat kende ik nog niet maar dat is ontzettend handig. Ik kopieer nu steeds een deel van de output naar de syntax functie en dat werkt goed.

Naast het oplossen van mijn probleem heb je dus ook een bijdrage geleverd aan mijn kennis over mogelijkheden van SPSS, waarvoor bedankt!
pi_131675756
Serieus, SPSS gebruikte je zonder syntax :o
  zondag 29 september 2013 @ 16:09:00 #124
314761 sjoneah
Terecht. In één woord terecht.
pi_131676135
Jup. In mijn studie wordt er niet zo veel tot bijna geen aandacht besteed aan SPSS. Het enige vak wat ik daarin heb nu is Kwantitatieve onderzoeksmethoden waarbij je van alles met SPSS doet maar niks met de syntax.

Naast mijn studie volg ik het Honours college en daar gaan ze er vanuit dat je goed met SPSS kan werken. Zit dus helaas een 'gat' tussen maar gelukkig bestaat dit topic dan nog!
pi_131676454
quote:
0s.gif Op zondag 29 september 2013 15:37 schreef sjoneah het volgende:
Bedankt voor dit snelle antwoord! Door jouw oplossing ben ik eens even gaan knutselen met die Syntax functie van SPSS, dat kende ik nog niet maar dat is ontzettend handig. Ik kopieer nu steeds een deel van de output naar de syntax functie en dat werkt goed.

Naast het oplossen van mijn probleem heb je dus ook een bijdrage geleverd aan mijn kennis over mogelijkheden van SPSS, waarvoor bedankt!
Geen probleem, blij dat ik heb kunnen helpen :)

Wist je overigens dat je ook dingen in de syntax kunt "pasten"? Als je bijvoorbeeld iets met de knoppen doet, en je in plaats van op "ok" op "paste" klikt, krijg je de commandos in je syntax file. Als ik vaak hetzelfde moet doen (of als ik een soort van logboek wil hebben van wat ik heb gedaan) gebruik ik die optie vrij vaak.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  zondag 29 september 2013 @ 16:43:19 #126
314761 sjoneah
Terecht. In één woord terecht.
pi_131677329
Even geprobeerd, ook dat werkt handig! Bedankt! Dat deze zonnige zondag nog zo leerzaam kan zijn hè ;-)
pi_131802794
Ik heb even jullie hulp nodig, ik ben bezig met het schrijven van mijn afstudeer scriptie. Mijn onderwerp is of Het Nieuwe Werken invloed gaat hebben op de corebusiness van een Schoonmaakbedrijf.

Nu heb ik een onderscheid gemaakt in ondernemingen die

1. Het Nieuwe Werken hebben toegepast
2. Het Nieuwe Werken gaan toepassen
3. Het Nieuwe Werken niet gaan toepassen

Vervolgens is er achterhaald wat er met het schoonmaak budget is gebeurt, is dit gedaald of gestegen. Hieruit kan ik een gemiddelde berekenen hoeveel er gemiddeld gestegen of gedaald is.

Nu gaf mijn begeleider aan dat ik het beste regressie analyse hier op los kon laten om te kijken of er een samenhang is? Gebruik ik dan het goede model?

Ik wil de samenhang van de groei of krimp van het schoonmaak budget koppelen aan of er gekozen is wel of niet voor HNW.

[ Bericht 7% gewijzigd door Stienn op 03-10-2013 10:21:50 ]
pi_131809888
quote:
0s.gif Op donderdag 3 oktober 2013 10:09 schreef Stienn het volgende:
Ik heb even jullie hulp nodig, ik ben bezig met het schrijven van mijn afstudeer scriptie. Mijn onderwerp is of Het Nieuwe Werken invloed gaat hebben op de corebusiness van een Schoonmaakbedrijf.

Nu heb ik een onderscheid gemaakt in ondernemingen die

1. Het Nieuwe Werken hebben toegepast
2. Het Nieuwe Werken gaan toepassen
3. Het Nieuwe Werken niet gaan toepassen

Vervolgens is er achterhaald wat er met het schoonmaak budget is gebeurt, is dit gedaald of gestegen. Hieruit kan ik een gemiddelde berekenen hoeveel er gemiddeld gestegen of gedaald is.

Nu gaf mijn begeleider aan dat ik het beste regressie analyse hier op los kon laten om te kijken of er een samenhang is? Gebruik ik dan het goede model?

Ik wil de samenhang van de groei of krimp van het schoonmaak budget koppelen aan of er gekozen is wel of niet voor HNW.
Regressieanalyse of anova kan allebei, ligt een beetje aan wat je precies wilt doen.

Wil je kijken of de lengte van het doorvoeren verband houdt met het budget (dus een onderscheid maken tussen bedrijven die 1 maand geleden begonnen zijn en die 2 maanden geleden begonnen zijn etc) dan gebruik je een regressie.

Wil je kijken of de categorie uit maakt (wel doorgevoerd of niet doorgevoerd) dan gebruik je of een anova, of een regressieanalyse met dummies.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131810160
Thnx, ik wil inzicht geven of er een verband is in de daling van het schoonmaak budget of het wel of niet is ingevoerd. Als ik simpel nadenk kan ik dat toch ook aangeven in een kruistabel?
pi_131810489
quote:
0s.gif Op donderdag 3 oktober 2013 14:43 schreef Stienn het volgende:
Thnx, ik wil inzicht geven of er een verband is in de daling van het schoonmaak budget of het wel of niet is ingevoerd. Als ik simpel nadenk kan ik dat toch ook aangeven in een kruistabel?
Eeuhm dat lit er weer aan, als je afhankelijke is wel verhoogd vs niet verhoogd, dan een kruistabel.
Als je afhankelijke is; verhoogd met xx euro of verhoogd met xx procent, dan een anova.

Als je de data hebt voor dat tweede zou ik dat doen, verhoogd an sich zegt namelijk niet zo veel als dat om 2 cent of 10k kan gaan.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131837702
even een kort vraagje: in mijn enquête zit een vraag met 4 antwoordmogelijkheden, bijvoorbeeld:
A) ...............
B) ...............
C) ...............
D) Anders, namelijk

Hoe krijg ik de antwoorden die bij D zijn ingevuld nu in mijn grafieken?
pi_131837823
quote:
0s.gif Op vrijdag 4 oktober 2013 11:19 schreef Freire het volgende:
even een kort vraagje: in mijn enquête zit een vraag met 4 antwoordmogelijkheden, bijvoorbeeld:
A) ...............
B) ...............
C) ...............
D) Anders, namelijk

Hoe krijg ik de antwoorden die bij D zijn ingevuld nu in mijn grafieken?
wat wit je in je grafiek hebben? Het aantal maal dat anders is ingevuld? Lijntjes/staven per mogelijke string in D? In beide gevallen is Recode een optie.
pi_131837846
quote:
0s.gif Op vrijdag 4 oktober 2013 11:19 schreef Freire het volgende:
even een kort vraagje: in mijn enquête zit een vraag met 4 antwoordmogelijkheden, bijvoorbeeld:
A) ...............
B) ...............
C) ...............
D) Anders, namelijk

Hoe krijg ik de antwoorden die bij D zijn ingevuld nu in mijn grafieken?
Coderen in andere variabelen. Stel de vraag is wat voor huisdier je hebt en bij D vullen 5 mensen in Cavia, 3 Paard en 2 Koe, dan moet je D uitsplitsen in die 3 variabelen met de respectievelijke labels.
pi_131837889
quote:
1s.gif Op vrijdag 4 oktober 2013 11:23 schreef dotKoen het volgende:
ld? Lijntjes/staven per mogelijke string in D? In beide gevallen is Recode een optie.
Sorry, het was misschien een beetje onduidelijk.

De vraag in de enquête is bijvoorbeeld:
Wat is uw favoriete vakantieland?
A) Spanje
B) Frankrijk
C) Duitsland
D) België
E) Anders, namelijk...

Hiervan wil ik een 'Pie' maken, maar het lukt me niet om de ingevoerde antwoorden bij E) in die 'Pie' te krijgen.

Bedankt voor de snelle reactie trouwens

Edit: De post van Operc te laat gezien. Dank!
pi_131907020
Wie o wie kan me helpen met onderstaande probleem. Ik heb zelf behoorlijk wat tijd geïnvesteerd in het zoeken naar het juiste antwoord, maar het lijkt wel of alle studieboeken voorbeelden gebruiken waarbij de combinatie van onderstaande uitkomsten niet voorkomen. Of ik heb natuurlijk iets in de aanloop verkeerd gedaan.

Ik heb de scores van de afhankelijke en onafhankelijk variabele en moderator gemiddeld (compute mean a1,a2 etc) en daarna gesaved als zscore.

Vervolgens heb ik in een regressie analyse in block 1 de zscore onafhankelijk variabele en moderatie gezet gezet en in blok twee de interactieterm.

Als afhankelijke variabele heb ik zscore afhankelijke variabele ingevoerd.

In mijn eerste hypothese veronderstel ik een positief verband tussen onafhankelijke variabele en afhankelijke variabele en in mijn tweede hypothese stel ik dat de moderator een positieve invloed heeft op die samenhang.

Nu krijg ik als resultaat in "model summary" voor model 1 een p waarde van .042 en voor model 2 een p waarde van .067. De ANOVA geeft voor model 1 een p waarde idem als in model summary en een p waarde voor model 2 van 0.021.

Wanneer ik dan in de tabel kijk met coëfficiënten is de onafhankelijke variabele in model 1 significant (p .033, moderator is 0.223) maar in model 2 is niets meer significant (0.052, 0.122, en voor de interactieterm 0.067)

Ik zit totaal vast met het komen tot een conclusie wanneer ik naar deze resultaten kijk. Ik kom niet verder dan dat er een hoofdeffect is van onafhankelijk variabele + moderator op de afhankelijke variabele, maar dat de moderator zelf (interactie) geen invloed heeft op de samenhang tussen onafhankelijke variabele en afhankelijke variabele. Ook is de samenhang voor de afhankelijke variabele positief gezien de beta in coefficiententabel positief is en significant is. Heb de gegevens ook gevisualiseerd en daar zou je van zeggen dat de interactie wel significant is.

Wie kan me helpen om tot een conclusie te komen. Ik mis overduidelijk iets...........
http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131913086
Ik zit met een klein probleempje.

Stel je hebt twee variabelen: 1. Cocaïnegebruik in het afgelopen jaar en 2. Heroïnegebruik in het afgelopen jaar. De respondenten kunnen antwoorden met: ja, nee of geen antwoord. Nu heb ik deze variabelen samengevoegd tot een nieuwe variabele, namelijk: harddrugs gebruik in het afgelopen jaar.

Wanneer je een kruistabel zou maken van de eerste twee variabelen zie je de resultaten van respondenten die het afgelopen jaar zowel cocaïne als heroïne hebben gebruikt, de respondenten die beide niet hebben gebruikt en de respondenten die óf cocaïne óf heroïne hebben gebruikt.

Als ik een frequentietabel uitdraai van de nieuwe variabele, worden de laatste 2 groepen respondenten (alleen cocaïnegebruik of alleen heroïnegebruik) niet opgeteld bij de respondenten die zowel cocaïne als heroïne hebben gebruikt. Ben ik ergens een stap vergeten? Is hier een oplossing voor?
pi_131913738
Ik heb de oplossing al gevonden!

Via compute variables heb ik [&] gebruikt in plaats van[|], dus AND in plaats van OR.
pi_131923883
quote:
0s.gif Op vrijdag 4 oktober 2013 11:26 schreef Freire het volgende:

[..]

Sorry, het was misschien een beetje onduidelijk.

De vraag in de enquête is bijvoorbeeld:
Wat is uw favoriete vakantieland?
A) Spanje
B) Frankrijk
C) Duitsland
D) België
E) Anders, namelijk...

Hiervan wil ik een 'Pie' maken, maar het lukt me niet om de ingevoerde antwoorden bij E) in die 'Pie' te krijgen.

Bedankt voor de snelle reactie trouwens

Edit: De post van Operc te laat gezien. Dank!
Graag gedaan. :)
  Redactie Games maandag 7 oktober 2013 @ 09:33:24 #139
181272 crew  Noppie2000
pi_131928270
quote:
0s.gif Op zondag 6 oktober 2013 18:03 schreef dramatiek het volgende:
Wie o wie kan me helpen met onderstaande probleem. Ik heb zelf behoorlijk wat tijd geïnvesteerd in het zoeken naar het juiste antwoord, maar het lijkt wel of alle studieboeken voorbeelden gebruiken waarbij de combinatie van onderstaande uitkomsten niet voorkomen. Of ik heb natuurlijk iets in de aanloop verkeerd gedaan.

Ik heb de scores van de afhankelijke en onafhankelijk variabele en moderator gemiddeld (compute mean a1,a2 etc) en daarna gesaved als zscore.

Vervolgens heb ik in een regressie analyse in block 1 de zscore onafhankelijk variabele en moderatie gezet gezet en in blok twee de interactieterm.

Als afhankelijke variabele heb ik zscore afhankelijke variabele ingevoerd.

In mijn eerste hypothese veronderstel ik een positief verband tussen onafhankelijke variabele en afhankelijke variabele en in mijn tweede hypothese stel ik dat de moderator een positieve invloed heeft op die samenhang.

Nu krijg ik als resultaat in "model summary" voor model 1 een p waarde van .042 en voor model 2 een p waarde van .067. De ANOVA geeft voor model 1 een p waarde idem als in model summary en een p waarde voor model 2 van 0.021.

Wanneer ik dan in de tabel kijk met coëfficiënten is de onafhankelijke variabele in model 1 significant (p .033, moderator is 0.223) maar in model 2 is niets meer significant (0.052, 0.122, en voor de interactieterm 0.067)

Ik zit totaal vast met het komen tot een conclusie wanneer ik naar deze resultaten kijk. Ik kom niet verder dan dat er een hoofdeffect is van onafhankelijk variabele + moderator op de afhankelijke variabele, maar dat de moderator zelf (interactie) geen invloed heeft op de samenhang tussen onafhankelijke variabele en afhankelijke variabele. Ook is de samenhang voor de afhankelijke variabele positief gezien de beta in coefficiententabel positief is en significant is. Heb de gegevens ook gevisualiseerd en daar zou je van zeggen dat de interactie wel significant is.

Wie kan me helpen om tot een conclusie te komen. Ik mis overduidelijk iets...........
Doen wat alle wetenschappers tegenwoordig leuk vinden om te doen: Noem de interactie marginaal significant en zeg dat hier tekenen zijn van een effect maar dat vervolg onderzoek moet aantonen in welke maat het echt een sterk effect is ^O^
  maandag 7 oktober 2013 @ 12:22:51 #140
8369 speknek
Another day another slay
pi_131932483
Het is ook wel allemaal randje niet significant. In principe zou ik dan aanraden eerder naar de effect size / r waarde te kijken. Significantie is slechts een arbitraire cutoff point. Als de effect size groot is noem je het een trend.
They told me all of my cages were mental, so I got wasted like all my potential.
pi_131934925
quote:
0s.gif Op zondag 6 oktober 2013 18:03 schreef dramatiek het volgende:
Wie o wie kan me helpen met onderstaande probleem. Ik heb zelf behoorlijk wat tijd geïnvesteerd in het zoeken naar het juiste antwoord, maar het lijkt wel of alle studieboeken voorbeelden gebruiken waarbij de combinatie van onderstaande uitkomsten niet voorkomen. Of ik heb natuurlijk iets in de aanloop verkeerd gedaan.

Ik heb de scores van de afhankelijke en onafhankelijk variabele en moderator gemiddeld (compute mean a1,a2 etc) en daarna gesaved als zscore.

Vervolgens heb ik in een regressie analyse in block 1 de zscore onafhankelijk variabele en moderatie gezet gezet en in blok twee de interactieterm.

Als afhankelijke variabele heb ik zscore afhankelijke variabele ingevoerd.

In mijn eerste hypothese veronderstel ik een positief verband tussen onafhankelijke variabele en afhankelijke variabele en in mijn tweede hypothese stel ik dat de moderator een positieve invloed heeft op die samenhang.

Nu krijg ik als resultaat in "model summary" voor model 1 een p waarde van .042 en voor model 2 een p waarde van .067. De ANOVA geeft voor model 1 een p waarde idem als in model summary en een p waarde voor model 2 van 0.021.

Wanneer ik dan in de tabel kijk met coëfficiënten is de onafhankelijke variabele in model 1 significant (p .033, moderator is 0.223) maar in model 2 is niets meer significant (0.052, 0.122, en voor de interactieterm 0.067)

Ik zit totaal vast met het komen tot een conclusie wanneer ik naar deze resultaten kijk. Ik kom niet verder dan dat er een hoofdeffect is van onafhankelijk variabele + moderator op de afhankelijke variabele, maar dat de moderator zelf (interactie) geen invloed heeft op de samenhang tussen onafhankelijke variabele en afhankelijke variabele. Ook is de samenhang voor de afhankelijke variabele positief gezien de beta in coefficiententabel positief is en significant is. Heb de gegevens ook gevisualiseerd en daar zou je van zeggen dat de interactie wel significant is.

Wie kan me helpen om tot een conclusie te komen. Ik mis overduidelijk iets...........
wat is precies je vraag. Je omschrijft namelijk je resultaten maar zegt nergens waar je nu hulp bij nodig hebt :P

Wat ik nu kan zien:

je hebt twee losse effecten in je regressie gestopt, die hebben een sig effect. echter wanneer je een groter model gebruikt (toevoegen interactie term) worden die verbanden minder sterk.

Is je model 2 beter? Kun je ergens zien bij model fit.

Hoeveel variantie verklaren beide modellen?
Wat gebeurt er met de B in model 2 t.o.v. model 1?

P-wardes zijn echt de minst inzichtelijke statistische uitkomsten ooit, op p-waardes alleen kun je je conclusie nooit baseren.

En als gokje; als de interactie er visueel significant uit ziet, dan heb je waarschijnlijk veel te weinig proefpersonen gebruikt ;)
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131944626
Bedankt voor de feedback. Mijn vraag was welke conclusies ik hier aan kan verbinden. Met name de resultaten van de anova kan ik niet rijmen met de rest van de resultaten. Weet niet precies hoe ik de conclusie moet omschrijven.

In hypothese 1 veronderstel ik een positieve samenhang tussen onafh en afhankelijke variabele. In hypothese twee veronderstel ik dat de moderator een positieve invloed heeft op de relatie tussen onafhankelijke en afhankelijke variabele.

Gokje is inderdaad goed. Erg weinig proefpersonen (41). Opdracht gaat meer om het doen dan relevant onderzoek.

http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131960170
quote:
0s.gif Op maandag 7 oktober 2013 19:06 schreef dramatiek het volgende:
Bedankt voor de feedback. Mijn vraag was welke conclusies ik hier aan kan verbinden. Met name de resultaten van de anova kan ik niet rijmen met de rest van de resultaten. Weet niet precies hoe ik de conclusie moet omschrijven.

In hypothese 1 veronderstel ik een positieve samenhang tussen onafh en afhankelijke variabele. In hypothese twee veronderstel ik dat de moderator een positieve invloed heeft op de relatie tussen onafhankelijke en afhankelijke variabele.

Gokje is inderdaad goed. Erg weinig proefpersonen (41). Opdracht gaat meer om het doen dan relevant onderzoek.

[ afbeelding ]
Er zijn twee manieren hoe je dit kunt interpreteren.

De eerste is de soort van fascistische dichotome alles onder .05 is sig en dus belangrijk, alles erboven niet. Dan is interpretatie vrij straightforward.

De wat genuanceerdere interpretatie is dat je power erg laag is en je p-waardes daarom relatief hoog zijn. Dan zou ik gewoon naar de B's kijken in je tweede model. Er is dan dus een positief effect van de IV, en een interactie effect van e moderator, namelijk een positief effect voor de moderator an sich, maar de IV*moderator heeft een negatief effect dat dat opheft.

nb; in jouw stukje spreek je over een positief effect van de moderator, maar het lijkt een negatief effect te zijn.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131974614
quote:
0s.gif Op dinsdag 8 oktober 2013 01:54 schreef oompaloompa het volgende:

[..]

Er zijn twee manieren hoe je dit kunt interpreteren.

De eerste is de soort van fascistische dichotome alles onder .05 is sig en dus belangrijk, alles erboven niet. Dan is interpretatie vrij straightforward.

De wat genuanceerdere interpretatie is dat je power erg laag is en je p-waardes daarom relatief hoog zijn. Dan zou ik gewoon naar de B's kijken in je tweede model. Er is dan dus een positief effect van de IV, en een interactie effect van e moderator, namelijk een positief effect voor de moderator an sich, maar de IV*moderator heeft een negatief effect dat dat opheft.

nb; in jouw stukje spreek je over een positief effect van de moderator, maar het lijkt een negatief effect te zijn.
Ok, dus de ANOVA an sich geeft wel aan dat het volledige model significant. Dus als daar een niet significante p waarde uit was gekomen voor model 1 en 2 had ik helemaal niet verder hoeven kijken?

Ik neem mee als conclusie dat de IV een positief effect heeft op de DV en dat de moderator een negatieve invloed heeft op die relatie.
http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131975101
quote:
0s.gif Op dinsdag 8 oktober 2013 17:15 schreef dramatiek het volgende:

[..]

Ok, dus de ANOVA an sich geeft wel aan dat het volledige model significant. Dus als daar een niet significante p waarde uit was gekomen voor model 1 en 2 had ik helemaal niet verder hoeven kijken?
Ligt er aan hoeveel gewicht je geeft aan p-waardes :P

quote:
Ik neem mee als conclusie dat de IV een positief effect heeft op de DV en dat de moderator een negatieve invloed heeft op die relatie.
Ik ben niet helemaal duidelijk geweest hierin gisteren (ik geef mn jetlag de schuld)

Daarnaast realiseer ik me nu ook pas dat je waarschijnlijk twee continue IV's hebt gemeten.

Wat je hebt gevonden is dat met 1 punt hoger op emoV, mensen ongeveer .3 hoger scoren op de DV
1 punt hoger op extraV leidt tot een .23 hoger op de DV
De interactie tussen emoC en extraV zorgt er voor dat 1 punt hoger op die interactie leidt tot .35 lager op de DV

Dus voor iemand met 0 op emoV, zorgt er voor dat 1 hoger scoren op emoC leidt tot een hogere uitkomst op de DV, maar voor iemand die 1 scoort op emoV, zorgt het 1 hoger scoren op emoC tot een iets lagere uitkomst op de DV (+ .23 - .35 --> -.12)

Het probleem alleen met allebei veranderen in z-scores, is dat je je interactie nogal beperkt, je nteractie term moet dan namelijk even groot zijn voor iemand met -2 en en -2 als voor iemand met +2 en +2.

Nu moet ik als disclaimer zeggen dat ik vrijwel nooit regressies met interacties doe op continue variabelen, maar volgens mij klopt wat ik hierboven zeg, ik vind het conceptueel heel erg vreemd om een regressie te doen op een interactie van twee gecentreerde variabelen. Daarnaast maak je volgens mij ook nog andere assumpties op die manier, namelijk een exponentieel verband, een score van 2&2 telt als 4 in je regressie, maar 3&3 telt als 9.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131976747
quote:
0s.gif Op dinsdag 8 oktober 2013 17:30 schreef oompaloompa het volgende:

[..]

Ligt er aan hoeveel gewicht je geeft aan p-waardes :P

[..]

Ik ben niet helemaal duidelijk geweest hierin gisteren (ik geef mn jetlag de schuld)

Daarnaast realiseer ik me nu ook pas dat je waarschijnlijk twee continue IV's hebt gemeten.

Wat je hebt gevonden is dat met 1 punt hoger op emoV, mensen ongeveer .3 hoger scoren op de DV
1 punt hoger op extraV leidt tot een .23 hoger op de DV
De interactie tussen emoC en extraV zorgt er voor dat 1 punt hoger op die interactie leidt tot .35 lager op de DV

Dus voor iemand met 0 op emoV, zorgt er voor dat 1 hoger scoren op emoC leidt tot een hogere uitkomst op de DV, maar voor iemand die 1 scoort op emoV, zorgt het 1 hoger scoren op emoC tot een iets lagere uitkomst op de DV (+ .23 - .35 --> -.12)

Het probleem alleen met allebei veranderen in z-scores, is dat je je interactie nogal beperkt, je nteractie term moet dan namelijk even groot zijn voor iemand met -2 en en -2 als voor iemand met +2 en +2.

Nu moet ik als disclaimer zeggen dat ik vrijwel nooit regressies met interacties doe op continue variabelen, maar volgens mij klopt wat ik hierboven zeg, ik vind het conceptueel heel erg vreemd om een regressie te doen op een interactie van twee gecentreerde variabelen. Daarnaast maak je volgens mij ook nog andere assumpties op die manier, namelijk een exponentieel verband, een score van 2&2 telt als 4 in je regressie, maar 3&3 telt als 9.
Heb feedback van mijn begeleider die meldt dat ik moet spreken van "een trend". De gebruikte analyse zoals in de opgave was verder ok (betrouwbaarheidsanalyse,schalen berekenen (compute mean, dan gestandaardiseerde versie van schalen berekenen (zscore), interactieterm berekenen en multiple regressie uitvoeren)
Ook krijg ik de feedback dat ik p-waarde eventueel door 2 mag delen wanneer ik in mijn hypothese een richting aangeef (in dit geval een positief verband)

Beide IV variabelen zijn extraversie en emotionele stabiliteit, gemeten met 9 puntsschaal (uit bigfive test).

Ik vind het allemaal nogal vrij vaag. Lijkt me dat het minder vaag zou worden met 4000 ipv 42 respondenten.
http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131980235
quote:
0s.gif Op dinsdag 8 oktober 2013 18:35 schreef dramatiek het volgende:

[..]

Heb feedback van mijn begeleider die meldt dat ik moet spreken van "een trend". De gebruikte analyse zoals in de opgave was verder ok (betrouwbaarheidsanalyse,schalen berekenen (compute mean, dan gestandaardiseerde versie van schalen berekenen (zscore), interactieterm berekenen en multiple regressie uitvoeren)
Ook krijg ik de feedback dat ik p-waarde eventueel door 2 mag delen wanneer ik in mijn hypothese een richting aangeef (in dit geval een positief verband)

Beide IV variabelen zijn extraversie en emotionele stabiliteit, gemeten met 9 puntsschaal (uit bigfive test).

Ik vind het allemaal nogal vrij vaag. Lijkt me dat het minder vaag zou worden met 4000 ipv 42 respondenten.
Nu ben ik wel heel nieuwsgierig wie je begeleider is want, no offense naar jou toe, het klinkt eerder alsof je begeleider je probeert trucjes aan te leren dan je te helpen te begrijpen hoe je zoiets moet doen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  Redactie Games dinsdag 8 oktober 2013 @ 20:36:23 #148
181272 crew  Noppie2000
pi_131981620
quote:
0s.gif Op dinsdag 8 oktober 2013 18:35 schreef dramatiek het volgende:

[..]

Heb feedback van mijn begeleider die meldt dat ik moet spreken van "een trend". De gebruikte analyse zoals in de opgave was verder ok (betrouwbaarheidsanalyse,schalen berekenen (compute mean, dan gestandaardiseerde versie van schalen berekenen (zscore), interactieterm berekenen en multiple regressie uitvoeren)
Ook krijg ik de feedback dat ik p-waarde eventueel door 2 mag delen wanneer ik in mijn hypothese een richting aangeef (in dit geval een positief verband)

Beide IV variabelen zijn extraversie en emotionele stabiliteit, gemeten met 9 puntsschaal (uit bigfive test).

Ik vind het allemaal nogal vrij vaag. Lijkt me dat het minder vaag zou worden met 4000 ipv 42 respondenten.
Je zou pas naderhand richting geven aan je hypothese, dat is niet de bedoeling kan ik je beloven;)
pi_131983172
quote:
1s.gif Op dinsdag 8 oktober 2013 20:36 schreef Noppie2000 het volgende:

[..]

Je zou pas naderhand richting geven aan je hypothese, dat is niet de bedoeling kan ik je beloven;)
Nee, die richting staat natuurlijk op voorhand vast. Die ga je er niet achteraf bij bedenken.
http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131985843
quote:
0s.gif Op dinsdag 8 oktober 2013 21:01 schreef dramatiek het volgende:

[..]

Nee, die richting staat natuurlijk op voorhand vast. Die ga je er niet achteraf bij bedenken.
Maar je zei dat je een positieve interactie verwachtte. Nu vind je een negatieve die je vanje begeleider nog eenzijdig moet toetsen ook. Als dat niet achteraf je hypothese bedenken is, dan weet ik het ook niet meer :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_131987954
quote:
0s.gif Op dinsdag 8 oktober 2013 21:43 schreef oompaloompa het volgende:

[..]

Maar je zei dat je een positieve interactie verwachtte. Nu vind je een negatieve die je vanje begeleider nog eenzijdig moet toetsen ook. Als dat niet achteraf je hypothese bedenken is, dan weet ik het ook niet meer :P
quote:
0s.gif Op dinsdag 8 oktober 2013 21:43 schreef oompaloompa het volgende:

[..]

Maar je zei dat je een positieve interactie verwachtte. Nu vind je een negatieve die je vanje begeleider nog eenzijdig moet toetsen ook. Als dat niet achteraf je hypothese bedenken is, dan weet ik het ook niet meer :P
Wat hij zegt, tenminste zo interpreteer ik het, dat je soms de p waarde mag halveren wanneer je een richting veronderstelt in je hypothese. (negatief danwel positief). Op zich wordt de hypothese dan nog verworpen, ondanks het halveren van de p waarde omdat de invloed negatief is en niet positief zoals ik mijn hypothese gedacht had. Ik ga nu niet ineens de hypothese veranderen in dat ik een negatieve invloed van de moderator verwachtte.....
http://www.mrwonkish.nl Eurocrisis, Documentaires, Economie
pi_131994073
quote:
0s.gif Op dinsdag 8 oktober 2013 22:17 schreef dramatiek het volgende:

[..]

[..]

Wat hij zegt, tenminste zo interpreteer ik het, dat je soms de p waarde mag halveren wanneer je een richting veronderstelt in je hypothese. (negatief danwel positief). Op zich wordt de hypothese dan nog verworpen, ondanks het halveren van de p waarde omdat de invloed negatief is en niet positief zoals ik mijn hypothese gedacht had. Ik ga nu niet ineens de hypothese veranderen in dat ik een negatieve invloed van de moderator verwachtte.....
Ik geloof helemaal dat hij dat zegt want dat zijn dingen die je wel vaker hoort. Het is alleen niet correct :P

Er zijn 2 manieren om te testen, of tweezijdig, wat eigenlijk altijd gebruikt wordt. Of eenzijdig (wat eigenlijk alleen gebruikt wordt wanneer tweezijdig niet "werkt" wat al aangeeft dat veel mensen helemaal niet begrijpen wat ze nou eigenlijk doen).

Als je eenzijdig toetst doe je, als je richting consistent is p/2. Als de richting niet consistent is doe je (1-p)/2. Eenzijdig toetsen zorgt dus voor jou alleen maar voor een nog "slechtere" p-waarde.

Dat gezegd hebbende zou ik gewoon doen wat je begeleider zegt, je moet namelijk een goed punt krijgen. Maar houdt in je achterhoofd dat de opdracht die je krijgt gewoon niet klopt, en dat in de toekomst met andere begeleiders / beoordelaars je dit beter zo snel mogelijk kunt vergeten.

Voor welk vak is dit eigenlijk?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132553690
Hoi,

Hier ook een SPSS vraagje, hoop dat iemand me op weg kan helpen

Momenteel bezig met mijn scriptie. Korte uitleg van mijn afhankelijke variabele: ik wil onderzoeken hoe vaak bepaalde werkzaamheden worden uitgevoerd op een risico. De informatie die ik heb is:

1. De hoeveelheid risico's per case (met een maximum van 13 risico's);
2. Per risico een antwoord hoe dit risico is opgevolgd (mogelijke antwoorden zijn 0 t/m 6).
3. Ik wil in mijn afhankelijke variabele weergeven bij hoeveel risico's per case het antwoord 5 is gegeven. Ik wil namelijk onderzoeken of in de economische crisis vaker het antwoord 5 wordt gegeven dan voor de crisis.
4.Ik heb per case bepaalt hoe vaak het antwoord 5 is gegeven, dit heb ik gedeeld door het aantal risico's per case , hierdoor krijg ik een soort van verhoudingsgetal.

Het probleem waar ik tegenaan loop is dat bij veel cases het antwoord 5 helemaal niet is gegeven. Ik heb dus relatief vaak een score van 0,00 (immers 0 gedeeld door het aantal risico's). Het gemiddelde van de variabele ligt daarom rond de 0,11.

Omdat ik een regressie-analyse wil uitvoeren moet mijn afhankelijke variabele normaal verdeeld zijn. Dat is deze niet.Op het moment dat bijvoorbeeld voor 3 van de 4 variabelen het antwoord 5 is gegeven komt hier een score uit van 0,75, wat door SPSS als een outlier wordt gezien. In mijn histogram zie ik een grote piek bij de 0,00. Ik heb ook al een logaritme van de variabele gemaakt, maar dit veranderd niets aan de vorm van de histogram.

Ik zou alle outliers eruit kunnen gooien of ze normaliseren, dit leidt er echter naar mijn idee toe dat de uitkomsten straks totaal niet meer betrouwbaar/representatief zijn. Ik ben dus op zoek naar een andere oplossing waarbij ik wel een normaal verdeelde variabele heb, maar de kwaliteit van de dataset wel geborgd blijft. Hoop dat ik het een beetje duidelijk heb kunnen uitleggen, heeft iemand een idee hoe ik dit kan oplossen?
pi_132560447
quote:
10s.gif Op vrijdag 25 oktober 2013 17:03 schreef Keessie88 het volgende:
Hoi,

Hier ook een SPSS vraagje, hoop dat iemand me op weg kan helpen

Momenteel bezig met mijn scriptie. Korte uitleg van mijn afhankelijke variabele: ik wil onderzoeken hoe vaak bepaalde werkzaamheden worden uitgevoerd op een risico. De informatie die ik heb is:

1. De hoeveelheid risico's per case (met een maximum van 13 risico's);
2. Per risico een antwoord hoe dit risico is opgevolgd (mogelijke antwoorden zijn 0 t/m 6).
3. Ik wil in mijn afhankelijke variabele weergeven bij hoeveel risico's per case het antwoord 5 is gegeven. Ik wil namelijk onderzoeken of in de economische crisis vaker het antwoord 5 wordt gegeven dan voor de crisis.
4.Ik heb per case bepaalt hoe vaak het antwoord 5 is gegeven, dit heb ik gedeeld door het aantal risico's per case , hierdoor krijg ik een soort van verhoudingsgetal.

Het probleem waar ik tegenaan loop is dat bij veel cases het antwoord 5 helemaal niet is gegeven. Ik heb dus relatief vaak een score van 0,00 (immers 0 gedeeld door het aantal risico's). Het gemiddelde van de variabele ligt daarom rond de 0,11.

Omdat ik een regressie-analyse wil uitvoeren moet mijn afhankelijke variabele normaal verdeeld zijn. Dat is deze niet.Op het moment dat bijvoorbeeld voor 3 van de 4 variabelen het antwoord 5 is gegeven komt hier een score uit van 0,75, wat door SPSS als een outlier wordt gezien. In mijn histogram zie ik een grote piek bij de 0,00. Ik heb ook al een logaritme van de variabele gemaakt, maar dit veranderd niets aan de vorm van de histogram.

Ik zou alle outliers eruit kunnen gooien of ze normaliseren, dit leidt er echter naar mijn idee toe dat de uitkomsten straks totaal niet meer betrouwbaar/representatief zijn. Ik ben dus op zoek naar een andere oplossing waarbij ik wel een normaal verdeelde variabele heb, maar de kwaliteit van de dataset wel geborgd blijft. Hoop dat ik het een beetje duidelijk heb kunnen uitleggen, heeft iemand een idee hoe ik dit kan oplossen?
Zijn de opties 0-6 ordinale of nominale variabelen? Of misschien nog handiger, wat betekent 0-6?

Zijn de risicos afhankelijk of onafhankelijk? Dus als een case risico 1&2 heeft is de kans op risico 3 dan ook groter (of juist kleiner?)

Ik denk eigenlijk namelijk dat je helemaal geen regressie moet (kunt) doen op deze data, maar heb iets meer informatie nodig om je de juiste toets aan te kunnen raden.

Je zegt trouwens ook dat je denkt dat 5 vaker nu gegeven wordt dan voor de crisis, ik neem aan dat je dus ook data van voor de crisis hebt. Is dat data van dezelfde informtiebron of van andere personen/bedrijven (ik weet niet wat je sample is).
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132575880
Hey, thanks voor je reactie. Hier wat meer details:

- de opties 0-6 zijn nominale variabelen. Het is een scriptie voor de opleiding accountancy. Bij 0-6 heeft de respondent moeten aangeven wat voor soort werkzaamheden hij heeft gedaan om het risico te beperken (bv interview met het personeel, het doen van een cijferbeoordeling)
- De risico's zijn onafhankelijk.

Ik dacht een regressie-analyse uit te voeren om te onderzoeken of mijn mijn variabelen van invloed zijn op de afhankelijke variabele. Bv. zorgt een lagere auditfee ervoor dat de accountant zijn werk anders doet (tijdsdruk).

Ik heb daarnaast ook data van voor de crisis, om het effect te meten wil een Paired Samples T-test gebruiken. Ik heb namelijk van dezelfde firma's data van voor en tijdens de crisis. Ik kan hierbij dus het effect meten bij een specifieke firma zelf.
pi_132636814
quote:
0s.gif Op zaterdag 26 oktober 2013 08:53 schreef Keessie88 het volgende:
Hey, thanks voor je reactie. Hier wat meer details:

- de opties 0-6 zijn nominale variabelen. Het is een scriptie voor de opleiding accountancy. Bij 0-6 heeft de respondent moeten aangeven wat voor soort werkzaamheden hij heeft gedaan om het risico te beperken (bv interview met het personeel, het doen van een cijferbeoordeling)
- De risico's zijn onafhankelijk.

Ik dacht een regressie-analyse uit te voeren om te onderzoeken of mijn mijn variabelen van invloed zijn op de afhankelijke variabele. Bv. zorgt een lagere auditfee ervoor dat de accountant zijn werk anders doet (tijdsdruk).

Ik heb daarnaast ook data van voor de crisis, om het effect te meten wil een Paired Samples T-test gebruiken. Ik heb namelijk van dezelfde firma's data van voor en tijdens de crisis. Ik kan hierbij dus het effect meten bij een specifieke firma zelf.
Als het alleen er om gaat of ze optie 5 wel of niet doen zou ik een logistische regressie gebruiken. Omdat het om een keuze gaat tussen 0 (niet doen) en 1 (wel doen) zal je data nooit normaal verdeeld zijn. Wat een logistische regressie doet is kijken naar de odds ratio van wel vs niet iets doen. Door daar de log van te nemen zouden de data approx normal moeten zijn en kun je dus een regressie erop uitvoeren.

Ik heb zelf persoonlijk ziets nog nooit multilevel gedaan (met meerdere meetpunten per bedrijf) maar dat zou mogelijk moeten zijn.

Hoe dan ook is het type data dat je hebt eigenlijk niet geschikt voor normale t-toetsen en regressies.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132644540
Ik wil graag toetsen of ze optie 5 vaker gebruiken dan voorheen, door er een dummyvariabele van te maken (0 en 1) kan ik alleen nog zeggen of ze optie 5 hebben gekozen, maar niet of dat in verhouding vaker is dan voorheen. Nu heb ik het aantal keer optie 5 gedeeld door het totaal aantal risico's, waardoor je een verhoudingsgetal krijgt.

Als ik het zo lees bedoel je dat ik per risico moet aangeven of ze wel of niet optie 5 hebben gebruikt?Dus een 0 en een 1 scoren per risico? Praktisch probleem hierbij is alleen dat niet alle firma's alle risico's hebben.

Kom er dus helaas nog niet helemaal uit, dankje voor het meedenken iig!
pi_132645504
quote:
0s.gif Op maandag 28 oktober 2013 07:43 schreef Keessie88 het volgende:
Ik wil graag toetsen of ze optie 5 vaker gebruiken dan voorheen, door er een dummyvariabele van te maken (0 en 1) kan ik alleen nog zeggen of ze optie 5 hebben gekozen, maar niet of dat in verhouding vaker is dan voorheen. Nu heb ik het aantal keer optie 5 gedeeld door het totaal aantal risico's, waardoor je een verhoudingsgetal krijgt.

Als ik het zo lees bedoel je dat ik per risico moet aangeven of ze wel of niet optie 5 hebben gebruikt?Dus een 0 en een 1 scoren per risico? Praktisch probleem hierbij is alleen dat niet alle firma's alle risico's hebben.

Kom er dus helaas nog niet helemaal uit, dankje voor het meedenken iig!
Dat zou niet uit moeten maken maar dan zit je wel met een moeilijkere analyse en gebruik je een mixed model:

bedrijf als random effect, risico als fixed effect, crisis als fixed, risico*crisis fixed op wel of niet 5:

Maar ik weet niet of je opdracht vraagt om de juiste (maar veel ingewikkeldere) analyse of dat je beter de onjuiste maar gemakkelijkere kunt doen...
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132749226
hallo ik had een 9.5 voor sps toets dus als iemamd hulp nodig heeft kan ik dit aanbieden (versie 21)
Ne mutlu Türküm diyene
pi_132751665
Ik ben op het moment bezig met mijn masterscriptie en al een tijdje aan het worstelen met SPSS.
Ik wil graag gaan testen of er een medierende effect is: A ---> B ---> C

Hiervoor moet ik natuurlijk eerst gaan kijken of er aan de voorwaarden van mediatie voldaan wordt:
A --> C
A --> B
B --> C
Dit wil ik doen d.m.v. enkelvoudige regressie analyse, want ik denk dat alle verbanden hierboven asymmetrisch zijn en Scale x Scale zijn.
Nu voldoet het bij A --> C aan de vooronderstellingen van enkelvoudige regressie analyse (lineair en homoscendasticiteit), maar bij zowel A --> B en B --> C is de homoscendasticiteit niet in orde (In de plot zijn bijna alle waarden tussen de -1 en 0 te vinden).

Nu vraag ik me af of ik de variabele B moet transformeren (zoja, op welke manieren kan dat) of moet ik een andere test gaan gebruiken in plaats van de enkelvoudige regressieanalyse (zoja, hoe weet ik welke?)

Ik hoop dat het een duidelijke vraag is en jullie me kunnen helpen, want zelf ben ik erg in de war!

Alvast bedankt!
pi_132751886
En ik kreeg van mijn begeleidster de feedback niet te middelen bij het maken van een frequentiemaat.
Weet iemand waarom niet? En wat ik dan wel moet doen? De SuM?
pi_132759563
quote:
0s.gif Op donderdag 31 oktober 2013 09:56 schreef elineee het volgende:
n B --> C is de homoscendasticiteit niet in orde (In de plot zijn bijna alle waarden tussen de -1 en 0 te vinden).
volgens mij kan dit niet? :?

maar je zegt dat het frequentiematen zijn? hoezo gebruik je dan regressie analyses?

je hele verhaal is een beetje onduidelijk
pi_132766952
quote:
0s.gif Op donderdag 31 oktober 2013 09:56 schreef elineee het volgende:
Ik ben op het moment bezig met mijn masterscriptie en al een tijdje aan het worstelen met SPSS.
Ik wil graag gaan testen of er een medierende effect is: A ---> B ---> C

Hiervoor moet ik natuurlijk eerst gaan kijken of er aan de voorwaarden van mediatie voldaan wordt:
A --> C
A --> B
B --> C
Dit wil ik doen d.m.v. enkelvoudige regressie analyse, want ik denk dat alle verbanden hierboven asymmetrisch zijn en Scale x Scale zijn.
Nu voldoet het bij A --> C aan de vooronderstellingen van enkelvoudige regressie analyse (lineair en homoscendasticiteit), maar bij zowel A --> B en B --> C is de homoscendasticiteit niet in orde (In de plot zijn bijna alle waarden tussen de -1 en 0 te vinden).

Nu vraag ik me af of ik de variabele B moet transformeren (zoja, op welke manieren kan dat) of moet ik een andere test gaan gebruiken in plaats van de enkelvoudige regressieanalyse (zoja, hoe weet ik welke?)

Ik hoop dat het een duidelijke vraag is en jullie me kunnen helpen, want zelf ben ik erg in de war!

Alvast bedankt!
Kun je iets meer vertellen over de variabelen, voornamelijk variabele B?

quote:
0s.gif Op donderdag 31 oktober 2013 10:08 schreef elineee het volgende:
En ik kreeg van mijn begeleidster de feedback niet te middelen bij het maken van een frequentiemaat.
Weet iemand waarom niet? En wat ik dan wel moet doen? De SuM?
Eigenlijk hier hetzelde, hoe bedoel je frequentiemaat?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132923251
Om duidelijker te zijn:
Ik kijk in mijn studie naar het effect van Psychopathologie bij ouders (Depressie+Angst) op het Coping gedrag van kinderen (in conflicten met ouders/leeftijdsgenoten). Daarnaast kijk welk effect Fysieke Kindermishandeling heeft op dit effect. Ik verwacht dat dit een medierend effect heeft.

quote:
0s.gif Op donderdag 31 oktober 2013 18:06 schreef oompaloompa het volgende:
Kun je iets meer vertellen over de variabelen, voornamelijk variabele B?

Variabele B is dus fysieke kindermishandeling. Dit is een frequentiemaat. Ik kijk naar het afgelopen half jaar en dan naar de frequentie daarvan.
Om deze variabele te maken heb ik de items omgescoord waarbij:
1=0x
2=1x
3=2x
4=4x
5=8x
6=15x
7=25x of meer

Nu wil ik van deze items de frequentiemaat/variabele fysieke kindermishandeling maken.
Ik had dit gedaan door te middelen : Mean.5(item1+item2+etc)*7.
Mijn begeleidster gaf echter aan dat het te simpel is om te middelen met een frequentiemaat.

Ik heb geen idee wat ik nu wel moet doen.
pi_132923313
quote:
0s.gif Op donderdag 31 oktober 2013 14:38 schreef Silverdigger2 het volgende:
hoezo gebruik je dan regressie analyses?
Reagerend hierop: Het gaat bij mijn variabele A en C niet op frequentiematen en daarom gebruik ik daarbij een regressie analyse, maar variabele B is dit wel en nu weet ik niet welke analyse ik daarvoor moet gebruiken..
Ik moet variabele B namelijk in 2 van de 3 analyses gebruiken.

Iemand wel een idee?
pi_132926452
quote:
0s.gif Op dinsdag 5 november 2013 13:44 schreef elineee het volgende:
Om duidelijker te zijn:
Ik kijk in mijn studie naar het effect van Psychopathologie bij ouders (Depressie+Angst) op het Coping gedrag van kinderen (in conflicten met ouders/leeftijdsgenoten). Daarnaast kijk welk effect Fysieke Kindermishandeling heeft op dit effect. Ik verwacht dat dit een medierend effect heeft.

[..]

Variabele B is dus fysieke kindermishandeling. Dit is een frequentiemaat. Ik kijk naar het afgelopen half jaar en dan naar de frequentie daarvan.
Om deze variabele te maken heb ik de items omgescoord waarbij:
1=0x
2=1x
3=2x
4=4x
5=8x
6=15x
7=25x of meer

Nu wil ik van deze items de frequentiemaat/variabele fysieke kindermishandeling maken.
Ik had dit gedaan door te middelen : Mean.5(item1+item2+etc)*7.
Mijn begeleidster gaf echter aan dat het te simpel is om te middelen met een frequentiemaat.

Ik heb geen idee wat ik nu wel moet doen.
Het probleem van je frequentiemaat is dat dit een sort van logaritme is, het verschil tussen 6 en 7 is groter dan het verschil tussen 2 en 3, toch tel je allebei als "1". Waarom gebruik je niet gewoon de absolute aantallen?

Voor het combineren van de items tot 1 gemiddelde is het verder belangrijk dat al die items hetzelfde meten, ik ken je items niet, maar ik vermoedt dat dat niet het geval is. Wat dat betreft heeft je begeleider ook gelijk omdat als je dan het gemiddelde neemt, je impliciet er van uit gaat dat je schalen hetzelfde meten en dat iemand die 2 op item 1 antwoord en 4 op item 2, hetzelfde is als iemand die 4 op item 1 zegt en 2 op item 2.

Dit kun je oplossen door of alle items los te gebruiken, of door te kijken of de items inderdaad zo verschillen en zo niet ze samen te voegen en daar goede argumenten voor te hebben.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132953260
quote:
0s.gif Op dinsdag 5 november 2013 15:22 schreef oompaloompa het volgende:
Het probleem van je frequentiemaat is dat dit een sort van logaritme is, het verschil tussen 6 en 7 is groter dan het verschil tussen 2 en 3, toch tel je allebei als "1". Waarom gebruik je niet gewoon de absolute aantallen?
Ik heb van mijn begeleidster ze juist moeten omscoren omdat dit staat voor het getal. Dus degene die 6 invulde heeft daadwerkelijk 15x zijn/haar kind geslagen in het afgelopen jaar (sorry het is een beetje een naar onderwerp waardoor dit erg banaal klinkt, maar voor het analyseren moet het helaas zo besproken worden).
Nu snap ik dat het logaritmisch is, maar is er dan een andere manier waarop ik dit kan omzeilen?

quote:
0s.gif Op dinsdag 5 november 2013 15:22 schreef oompaloompa het volgende:
Voor het combineren van de items tot 1 gemiddelde is het verder belangrijk dat al die items hetzelfde meten, ik ken je items niet, maar ik vermoedt dat dat niet het geval is. Wat dat betreft heeft je begeleider ook gelijk omdat als je dan het gemiddelde neemt, je impliciet er van uit gaat dat je schalen hetzelfde meten en dat iemand die 2 op item 1 antwoord en 4 op item 2, hetzelfde is als iemand die 4 op item 1 zegt en 2 op item 2.
Dit zegt dus iedereen die ik spreek, maar het is een variabele bestaand uit items die op wetenschappelijke basis is samengesteld. Ik weet dus zeker dat de items hetzelfde meten, namelijk fysieke kindermishandeling en dat ze even sterk/zwaar zijn.
pi_132953393
quote:
0s.gif Op woensdag 6 november 2013 10:19 schreef elineee het volgende:

[..]

Ik heb van mijn begeleidster ze juist moeten omscoren omdat dit staat voor het getal. Dus degene die 6 invulde heeft daadwerkelijk 15x zijn/haar kind geslagen in het afgelopen jaar (sorry het is een beetje een naar onderwerp waardoor dit erg banaal klinkt, maar voor het analyseren moet het helaas zo besproken worden).
Nu snap ik dat het logaritmisch is, maar is er dan een andere manier waarop ik dit kan omzeilen?
De '25 of meer' categorie, is dat ook wat mensen hebben ingevuld, of heb je precieze scores (25, 32, 41) en die samengevat in 25 of meer? In het laatste geval: Losse scores pakken en niet omscoren naar 1-7 maar in absolute aantallen de waardes invoeren. :)
pi_132956163
quote:
0s.gif Op woensdag 6 november 2013 10:19 schreef elineee het volgende:

[..]

Ik heb van mijn begeleidster ze juist moeten omscoren omdat dit staat voor het getal. Dus degene die 6 invulde heeft daadwerkelijk 15x zijn/haar kind geslagen in het afgelopen jaar (sorry het is een beetje een naar onderwerp waardoor dit erg banaal klinkt, maar voor het analyseren moet het helaas zo besproken worden).
Nu snap ik dat het logaritmisch is, maar is er dan een andere manier waarop ik dit kan omzeilen?

[..]
Nou ja het enige dat je kunt doen is het ook op die manier interpreteren, maar dat maakt het hele verhaal een stuk moeilijker. Ik begrijp niet goed waarom je begeleider deze manier wil gebruiken omdat het je data minder inzichtelijk maakt. Uiteindelijk zul je een conclusie hebben waarop je zegt; een score van 1 hoger op "schaal" leidt tot "x", maar wat een score van 1 hoger op "schaal" betekent hangt af van waar je kijkt, 2-3 is anders dan 5-6. Het maakt dus alles veel ingewikkelder.

quote:
Dit zegt dus iedereen die ik spreek, maar het is een variabele bestaand uit items die op wetenschappelijke basis is samengesteld. Ik weet dus zeker dat de items hetzelfde meten, namelijk fysieke kindermishandeling en dat ze even sterk/zwaar zijn.
Je kunt statstisch kijken of dat inderdaad zo is, door bv correlaties te bekijken, crohnbachs alfa en de items los te nemen en te laten zien dat ze allemaal een vergelijkbare b hebben. Daarnaast zul je voornamelijk een logisch argument moeten hebben waarom ze wel samen zouden kunnen, een soort uitgebreidere versie van wat je net zei ;)
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_132997498
Kan een actieve macro ook gedeactiveerd worden (via syntax)?
Aldus.
pi_132998189
quote:
2s.gif Op donderdag 7 november 2013 11:35 schreef Z het volgende:
Kan een actieve macro ook gedeactiveerd worden (via syntax)?
Geen flauw idee. SPS afsluiten en opnieuw opstarten zou normaal gezien wel moeten werken. Wat voor macro wil je precies uitzetten? (Als het een macro is die een functie toevoegt is het niet erg dat deze geactiveerd blijft, als hij bestaande functies aanpast mogelijk wel.)

EDIT: je zou hetzelfde commando kunnen invoeren maar dan met EXCLUDE in plaats van INCLUDE, maar of het werkt durf ik je niet te zeggen. :P
pi_132998385
Het is meer voor de zekerheid. Ik overschrijf de Macro telkens, dus in principe is er niks aan de hand. Maar ter geruststelling zou ik de macro eerst graag deactiveren. Veel macros, veel variabelen, veel data maakt het lastig achteraf checken.
Aldus.
pi_133011334
Ik heb een niet-SPSS vraag maar vermoed hier de grootste kans op een nuttig antwoord te hebben.

Ik heb een dataset met ongeveer 1600 ppn en een aantal metingen. Ik gebruik in de uitleg andere dingen dan ik heb gemeten, puur om het wat overzichtelijk te houden. OOk schrijf ik alsof het een causaal verband is, maar het is correlationeel daar houd ik in interpretatie wel rekening mee, maar dat schrijft nogal onhandig voor hier :P

Van die 1600 mensen heb ik een afhankelijke, laten we zeggen geluk.
Daarnaast twee onafhankelijke maar gecorreleerde variabelen, leeftijd en inkomen.
Allebei hebben een invloed op geluk, maar ook bestaat er een interactie.

Nu zijn er twee manieren om dit patroon weer te geven die ik heb geprobeerd.

De eerste optie is door middel van een lijdiagram. Op de Y-as geluk, op x gemiddelde leeftijd - 1 std, gemiddlde, en gemiddelde +1 std. Daarnaast 3 verschillende lijnen voor inkomen -1 std, inkomen, en inkomen + 1 std. Aan de ene kant is dit overzichtelijk, aan de andere kant zie je met deze lijnen niet meer dat er een grote bult van ppn zit op hoog inkomen&hoge leeftijd, en een bult op lage leeftijd+laag inkomen.

De andere optie is een scatterplot. Hier is het probleem dat met 1600 stippen, het totaal onmogelijk is om nog iets van een patroon te herkennen.

Eigenlijk zou ik dus een soort van optie willen die beide combineert. De overzichtelijkheid van een lijndiagram, maar daaraan toegevoegd visuele informatie van de proportie mensen die door de lijn weergegeven worden.

Ik hoop dat dit een beetje te volgen was?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_133044849
R biedt daar allerlei mogelijkheden voor (lijnen met marges). Ik kan je niet precies vertellen hoe dat aan te pakken.
Aldus.
pi_133046366
ggplot2 (pakket van R) biedt o.a. de mogelijkheid om de transparantie van punten scatterplots aan te passen, wat patroonherkenning een stuk beter opmaakt. De syntax van dit pakket (plots opgebouwd uit lagen) maakt het ook makkelijk om er een lijn aan toe te voegen.

Ik kan kijken of ik een simpel voorbeeldje kan maken.
You don't need a weatherman to know which way the wind blows.
---------------------------------------------------------------------------------------------------------------------------------------------
last.fm Album top 100
pi_133053394
quote:
2s.gif Op vrijdag 8 november 2013 15:02 schreef Z het volgende:
R biedt daar allerlei mogelijkheden voor (lijnen met marges). Ik kan je niet precies vertellen hoe dat aan te pakken.
quote:
0s.gif Op vrijdag 8 november 2013 15:44 schreef Felagund het volgende:
ggplot2 (pakket van R) biedt o.a. de mogelijkheid om de transparantie van punten scatterplots aan te passen, wat patroonherkenning een stuk beter opmaakt. De syntax van dit pakket (plots opgebouwd uit lagen) maakt het ook makkelijk om er een lijn aan toe te voegen.

Ik kan kijken of ik een simpel voorbeeldje kan maken.
Thanks, Ik heb al het een en ander met ggplot gedaan in R maar heb R tot nu toe alleen gebruikt voor datasimulatie etc. Zo te zien is het tijd geworden ook dataanalyse in R te leren doen :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_133053707
Maar SPSS blijft een fantastisch pakket. Vandaag dingen gedaan met data restructure en autorecode. Dat zou in andere pakketten uren geduurd hebben en in SPSS zo gepiept. Maar naar mate databestanden groter worden, verwacht ik steeds minder met SPSS te doen. En deste meer met R en Python (pandas).
Aldus.
pi_133053797
quote:
2s.gif Op vrijdag 8 november 2013 19:11 schreef Z het volgende:
Maar SPSS blijft een fantastisch pakket. Vandaag dingen gedaan met data restructure en autorecode. Dat zou in andere pakketten uren geduurd hebben en in SPSS zo gepiept. Maar naar mate databestanden groter worden, verwacht ik steeds minder met SPSS te doen. En deste meer met R en Python (pandas).
Hmm bij mij is het precies andersom, mijn t-toetsen durf ik wel in R te doen, het is mijn 6000N 300 variabelen dataset waar ik het toch wel heel erg fijn vind om mijn data te kunnen zien.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_133053903
Dat begrijp ik. Maar kan je in R toch ook?
Aldus.
pi_133081617
Poeh, ik zit muurvast met iets dat waarschijnlijk heel simpel is. Hoop dat iemand mij hier kan helpen!

Ik heb vier condities, elke proefpersoon heeft één hiervan doorlopen.
De condities zijn genummerd van 1 tm 4. Dat ziet er dus zo uit:



(klein stukje, want 300 proefpersonen)

Nu wil ik één variabele maken waarin ik kan zien wie welke conditie heeft doorlopen, ik wil dus eigenlijk die 4 variabelen van de afbeelding in één variabele proppen. Weet iemand hoe ik dit voor elkaar krijg?
  Redactie Games zaterdag 9 november 2013 @ 17:11:35 #181
181272 crew  Noppie2000
pi_133081721
quote:
0s.gif Op zaterdag 9 november 2013 17:06 schreef Bakkerd het volgende:
Poeh, ik zit muurvast met iets dat waarschijnlijk heel simpel is. Hoop dat iemand mij hier kan helpen!

Ik heb vier condities, elke proefpersoon heeft één hiervan doorlopen.
De condities zijn genummerd van 1 tm 4. Dat ziet er dus zo uit:

[ afbeelding ]

(klein stukje, want 300 proefpersonen)

Nu wil ik één variabele maken waarin ik kan zien wie welke conditie heeft doorlopen, ik wil dus eigenlijk die 4 variabelen van de afbeelding in één variabele proppen. Weet iemand hoe ik dit voor elkaar krijg?
Kan je ze niet simpelweg via compute bij elkaar optellen? Ervanuitgaande dat iedereen maar één conditie heeft doorlopen, krijg je dan dus of 0 +0+0+1 = conditie 1, 0+0+0+2 = conditie 2 enzovoorts. Dan zie je dus aan de hand van de uitkomst welke conditie dat is geweest :)
pi_133081980
HELD!

En dan te bedenken dat ik gisteren en vandaag de compute- en transform functies echt helemaal binnestebuiten heb gekeerd. Thanks :)
pi_133231640
Ik bijt me hier nog steeds op stuk.

Toets of je mag concluderen dat meer dan 30% van het personeel langer dan 30 minuten reistijd heeft.

Hierbij heb ik de binomiale toets gebruikt.


Nu heb ik deze test uitgevoerd (binomiale.. volgens mij de goede) en zie ik dat de significantie zo ontzettend laag is, onder mijn onbetrouwbaarheid van 5%.. hieruit mag ik dan toch concluderen dat 30% van het personeel een reistijd langer dan 30 minuten heeft?

Alvast bedankt..

[ Bericht 3% gewijzigd door ballenbak015 op 13-11-2013 21:38:17 ]
pi_133235799
quote:
0s.gif Op woensdag 13 november 2013 21:11 schreef ballenbak015 het volgende:
Ik bijt me hier nog steeds op stuk.

Toets of je mag concluderen dat meer dan 30% van het personeel langer dan 30 minuten reistijd heeft.

Hierbij heb ik de binomiale toets gebruikt.
[ afbeelding ]

Nu heb ik deze test uitgevoerd (binomiale.. volgens mij de goede) en zie ik dat de significantie zo ontzettend laag is, onder mijn onbetrouwbaarheid van 5%.. hieruit mag ik dan toch concluderen dat 30% van het personeel een reistijd langer dan 30 minuten heeft?

Alvast bedankt..
Voor de zekerheid, je hebt niet het hele personeelsbestand gevraagd naar hun reistijd toch?
pi_133236138
quote:
0s.gif Op woensdag 13 november 2013 22:28 schreef Operc het volgende:

[..]

Voor de zekerheid, je hebt niet het hele personeelsbestand gevraagd naar hun reistijd toch?
Nee, de dataset bestaat uit de gegevens van drie instituten dus niet het gehele personeelsbestand.
pi_133249785
Kan je een enkelvoudige regressie analyse en/of een Chi Square analyse uitvoeren wanneer de N verschilt per schaal (Door missings)?

ps. Ik heb hier eerder een vraag gesteld over mijn masterscriptie en voor degenen mij hierbij hebben proberen te helpen: Het is gelukt. Allereerst kwam mijn begeleidster erachter dat ze een fout had gemaakt dus dat haar feedback niet klopte en we hebben er geen frequentiemaat, maar een prevalentiemaat van gemaakt uiteindelijk (en dus kan ik de Chi-Square doen :-) )
pi_133696496
quote:
0s.gif Op donderdag 14 november 2013 13:22 schreef elineee het volgende:
Kan je een enkelvoudige regressie analyse en/of een Chi Square analyse uitvoeren wanneer de N verschilt per schaal (Door missings)?

ps. Ik heb hier eerder een vraag gesteld over mijn masterscriptie en voor degenen mij hierbij hebben proberen te helpen: Het is gelukt. Allereerst kwam mijn begeleidster erachter dat ze een fout had gemaakt dus dat haar feedback niet klopte en we hebben er geen frequentiemaat, maar een prevalentiemaat van gemaakt uiteindelijk (en dus kan ik de Chi-Square doen :-) )
Goed om te horen dat het gelukt is!

Tegelijkertijd begrijp ik helaas je nieuwe vraag niet. Een chi-square gaat over nominale verdelingen dus ik begrijp niet hoe dat iets te maken kan hebben met een schaal?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_134078061
Ben, na jaren geen SPSS en statistiek toegepast te hebben, nu op zeer pragmatistisch niveau bezig met het verwerken van data.Ik heb naast een 24 tal diepte interviews gehouden te hebben de respondenten ook vragenlijsten laten invullen.

Nu wil ik kijken, middels een T-toets, of groep A significant hoger scoort dan groep B in mijn onderzoek. Het antwoord is (voorlopig) dat dat niet het geval is.

Maar ik neem aan dat SPSS er van uit gaat dat die 24 respondenten een steekproef vormen uit een (zeer) grote populatie. Wat niet het geval is, ik schat de populatie op onder de 100 zelfs. Ik vrees dat dit een grote invloed heeft op de resultaten van de T-toets.

Enig idee hoe SPSS redeneert in deze kwestie en hoe ik dit anders kan aanpassen? Zoals ik al zei is het al een paar jaar geleden dat ik veel met SPSS en statistiek te maken had dus het kan zijn dat ik wat basiskennis mis in deze kwestie...
Patat Friet
pi_134104637
quote:
0s.gif Op maandag 9 december 2013 12:59 schreef ganzenherder het volgende:
Ben, na jaren geen SPSS en statistiek toegepast te hebben, nu op zeer pragmatistisch niveau bezig met het verwerken van data.Ik heb naast een 24 tal diepte interviews gehouden te hebben de respondenten ook vragenlijsten laten invullen.

Nu wil ik kijken, middels een T-toets, of groep A significant hoger scoort dan groep B in mijn onderzoek. Het antwoord is (voorlopig) dat dat niet het geval is.

Maar ik neem aan dat SPSS er van uit gaat dat die 24 respondenten een steekproef vormen uit een (zeer) grote populatie. Wat niet het geval is, ik schat de populatie op onder de 100 zelfs. Ik vrees dat dit een grote invloed heeft op de resultaten van de T-toets.

Enig idee hoe SPSS redeneert in deze kwestie en hoe ik dit anders kan aanpassen? Zoals ik al zei is het al een paar jaar geleden dat ik veel met SPSS en statistiek te maken had dus het kan zijn dat ik wat basiskennis mis in deze kwestie...
De grootte van de populatie maakt in principe niet uit.Wel is het zo dat je steekproef (24 per conditie of 24 in totaal?) extreem klein is, je power zal dus vrij laag zijn. Zo laag dat, als er echt een verschil is in de populatie, de kans dat je dit verschil statistisch aan kunt tonen vrij klein zal zijn door middel van t-toetsen.
Als je iets meer info geeft over wat en hoe je precies gemeten hebt, kan ik misschien iets meer zeggen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_135242442
Binnenkort dien ik mijn eindrapport voor mijn afstuderen in te leveren, met een aantal resultaten die ik tot nu toe van Thesistools binnen heb probeer ik al een beetje te oefenen met het uitlezen en verwerken van de statistieken zodat ik niet over een tijdje alles nog moet ontdekken in SPSS.

Nu loop ik tegen het volgende probleem aan, ik heb het .xls bestand geïmporteerd naar SPSS en dit geeft al een redelijk goede weergave, als ik nu wat crosstables of frequencies probeer te testen en te bekijken telt ie 135 respondenten, dit zijn er eigenlijk 123. Tevens deelt ie de legenda verkeerd in, misschien dat de onderstaande afbeeldingen het verhaal iets duidelijker maken.

Op afbeelding 1 kun je zien dat SPSS de antwoorden '1=man' voornamelijk allemaal onder gewoon '1' geschaard heeft. Afbeelding twee laat de eerste elf (lege) cellen zien welke SPSS ook als respondent meetelt (er zijn nog andere cellen aan het einde die het op 135 laten uitkomen). Mijn vraag is dus hoe ik beide problemen kan verhelpen om alles duidelijk en leesbaar eruit te laten komen, ben helaas niet zo'n ster met SPSS.



pi_135242820
quote:
0s.gif Op woensdag 8 januari 2014 18:56 schreef Thrills het volgende:
Binnenkort dien ik mijn eindrapport voor mijn afstuderen in te leveren, met een aantal resultaten die ik tot nu toe van Thesistools binnen heb probeer ik al een beetje te oefenen met het uitlezen en verwerken van de statistieken zodat ik niet over een tijdje alles nog moet ontdekken in SPSS.

Nu loop ik tegen het volgende probleem aan, ik heb het .xls bestand geïmporteerd naar SPSS en dit geeft al een redelijk goede weergave, als ik nu wat crosstables of frequencies probeer te testen en te bekijken telt ie 135 respondenten, dit zijn er eigenlijk 123. Tevens deelt ie de legenda verkeerd in, misschien dat de onderstaande afbeeldingen het verhaal iets duidelijker maken.

Op afbeelding 1 kun je zien dat SPSS de antwoorden '1=man' voornamelijk allemaal onder gewoon '1' geschaard heeft. Afbeelding twee laat de eerste elf (lege) cellen zien welke SPSS ook als respondent meetelt (er zijn nog andere cellen aan het einde die het op 135 laten uitkomen). Mijn vraag is dus hoe ik beide problemen kan verhelpen om alles duidelijk en leesbaar eruit te laten komen, ben helaas niet zo'n ster met SPSS.

[ afbeelding ]

[ afbeelding ]
De eerste 11 cases (rijen dus) kun je gewoon deleten uit het SPSS bestand. Kijk ook even of er onder de laatste respondent niet nog een rij is waarin iets staat (totaal ofzo) en haal die dan ook weg.

Wat betreft 1 en 1=man: kijk in die kolom of er bij de respondenten 1 of 1=man staat. In principe is het het netste om alleen met de nummers te werken (1 en 2 in dit geval) en dan via Variable View de Labels aan te passen dat 1=man en 2= vrouw. Je kunt dan in het data venster bovenin nog klikken op of je de weergave wil in cijfers (1 en 2) of de labels (man en vrouw). Dit zou al redelijk wat moeten oplossen. Zo niet, laat even weten welk probleem je dan overhoudt (het liefste weer met screenshots.)
pi_135243315
quote:
0s.gif Op woensdag 8 januari 2014 19:03 schreef Operc het volgende:

[..]

De eerste 11 cases (rijen dus) kun je gewoon deleten uit het SPSS bestand. Kijk ook even of er onder de laatste respondent niet nog een rij is waarin iets staat (totaal ofzo) en haal die dan ook weg.

Wat betreft 1 en 1=man: kijk in die kolom of er bij de respondenten 1 of 1=man staat. In principe is het het netste om alleen met de nummers te werken (1 en 2 in dit geval) en dan via Variable View de Labels aan te passen dat 1=man en 2= vrouw. Je kunt dan in het data venster bovenin nog klikken op of je de weergave wil in cijfers (1 en 2) of de labels (man en vrouw). Dit zou al redelijk wat moeten oplossen. Zo niet, laat even weten welk probleem je dan overhoudt (het liefste weer met screenshots.)
Super, bedankt! Dit heeft inderdaad de problemen opgelost. :)
  woensdag 8 januari 2014 @ 19:23:59 #193
165047 eleganza
ik hou van koekjes.
pi_135243935
^ Dit vond ik het grote probleem van Thesistools :( De datafile moet je eerst nog half slopen :')
+1 voor Qualtrics, vind ik echt stukken beter dan TT.
Koekje d'r bij?
pi_135244572
quote:
0s.gif Op woensdag 8 januari 2014 19:12 schreef Thrills het volgende:

[..]

Super, bedankt! Dit heeft inderdaad de problemen opgelost. :)
Mooi :)
quote:
0s.gif Op woensdag 8 januari 2014 19:23 schreef eleganza het volgende:
^ Dit vond ik het grote probleem van Thesistools :( De datafile moet je eerst nog half slopen :')
+1 voor Qualtrics, vind ik echt stukken beter dan TT.
Nooit Thesistools gebruikt (wel vaak langs zien komen). Kan Qualtrics data opslaan als SPSS-bestand? Een programma wat ik ooit gebruikte kon dat wel, maar geen idee meer hoe dat heette.
  woensdag 8 januari 2014 @ 19:40:28 #195
165047 eleganza
ik hou van koekjes.
pi_135244896
quote:
0s.gif Op woensdag 8 januari 2014 19:35 schreef Operc het volgende:

[..]

Nooit Thesistools gebruikt (wel vaak langs zien komen). Kan Qualtrics data opslaan als SPSS-bestand? Een programma wat ik ooit gebruikte kon dat wel, maar geen idee meer hoe dat heette.
Jup, je kunt je data rechstreeks exporteren naar een .sav bestand dat je direct in spss kunt laden, en de variabelen ook al direct een naam geven in qualtrics als je de vragenlijst maakt zodat je je niet dood zoekt in een databestand met 130 variabelen (story of my life). De eerste 6-7 variabelen zijn niet echt relevant, maar data over start/eindtijd, ip adres, respondentid en zulk soort dingen als je iets wil zeggen over de vragenlijst zelf :)

Echt, ik studeer nu 7 jaar, en had in mn eerste jaar willen weten van Qualtrics. Het is super gebruiksvriendelijk, en van ThesisTools heb ik nog moeten huilen toen ik mijn hbo scriptie ging schrijven. :'( Veel universiteiten (vaak faculteiten) hebben een abonnement op qualtrics, waardoor je ongelimiteerd aantal respondenten hebt. Als je het als student zonder abo heb je max 250 respondenten, maar meestal is dat meer dan voldoende.
Koekje d'r bij?
pi_135245016
quote:
0s.gif Op woensdag 8 januari 2014 19:40 schreef eleganza het volgende:

[..]

Jup, je kunt je data rechstreeks exporteren naar een .sav bestand dat je direct in spss kunt laden, en de variabelen ook al direct een naam geven in qualtrics als je de vragenlijst maakt zodat je je niet dood zoekt in een databestand met 130 variabelen (story of my life). De eerste 6-7 variabelen zijn niet echt relevant, maar data over start/eindtijd, ip adres, respondentid en zulk soort dingen als je iets wil zeggen over de vragenlijst zelf :)

Echt, ik studeer nu 7 jaar, en had in mn eerste jaar willen weten van Qualtrics. Het is super gebruiksvriendelijk, en van ThesisTools heb ik nog moeten huilen toen ik mijn hbo scriptie ging schrijven. :'( Veel universiteiten (vaak faculteiten) hebben een abonnement op qualtrics, waardoor je ongelimiteerd aantal respondenten hebt. Als je het als student zonder abo heb je max 250 respondenten, maar meestal is dat meer dan voldoende.
Dat is praktisch inderdaad. :Y Om het werken aan je scriptie (gok ik?) nog makkelijker te maken: gebruik Mendeley voor je literatuur/referenties. Scheelt veel geklooi.

Binnenkort eens naar Qualtrics kijken dan (vooral voor de combinatie met SPSS.)
  woensdag 8 januari 2014 @ 19:45:32 #197
165047 eleganza
ik hou van koekjes.
pi_135245180
quote:
0s.gif Op woensdag 8 januari 2014 19:42 schreef Operc het volgende:

[..]

Dat is praktisch inderdaad. :Y Om het werken aan je scriptie (gok ik?) nog makkelijker te maken: gebruik Mendeley voor je literatuur/referenties. Scheelt veel geklooi.

Binnenkort eens naar Qualtrics kijken dan (vooral voor de combinatie met SPSS.)
Laat ik nou net bijna klaar zijn met mn literatuur :@ :+ Ik ben mn scriptie een beetje verkeerd om aan het schrijven, eerst mn vragenlijst, dan methode/literatuur, dan analyse. (en dan de rest :') ) Maar ik kom hier nog wel even terug voor regressieanalyse. Heb ooit statistiek 1 gevolgd, maar ik ben om te huilen met cijfers. Sla mezelf nog steeds om 't feit dat ik een vragenlijst heb gekozen en niet kwalitatief ben gaan onderzoeken 8)7

* eleganza is echt om te huilen met cijfers en statistiek
Koekje d'r bij?
  maandag 13 januari 2014 @ 00:18:36 #198
78693 Hanzel_lane
Made by cerror
pi_135423586
Helden!

Ik zit met de 2 volgende spss vragen die ik niet kan oplossen:

Het gaat om de volgende spss file:

SPSS File

en de volgende 2 vragen:
1.
On the one hand, the genre may have an influence on the rating of the movie; on the other hand, men and women may differ in their preferences for the different genres. Please analyze whether gender has an effect on the preference for the presented movies and take into account that men and women may have different preferences for the genres.

2.
In the end, the management wants to obtain an explanation for the number of cinema visits in
the last 12 months. Therefore, you are asked to estimate a regression model. Please select a
maximum of 5 predictor variables (plus the constant). (Suggestion: choose the option ‘Linear
regression’ and ‘Method enter’).
a) Is the model you formulate overall significant?
b) Are the signs for the regression parameters as expected – if not, can you find an
explanation?
c) What is the R2
of the model, and what does it represent? Discuss the result critically?
d) Are there any multicollinearity issues?

Ik ben al de hele dag bezig, en ondanks vragen aan medestudenten (die het ook niet weten), boeken en internet; lukt het me niet... Hopelijk kan iemand me (op weg) helpen! Dank ieder.
Op vrijdag 30 juli 2004 13:25 schreef Houzer het volgende:
Hanzel is zo'n knuffelnewbie O+
pi_135423747
Ik kan je file niet zien want heb geen SPSS hier, vraag 2 is:

analyze(of dexcriptive statistics) -> lineair regression -> constante + 5 variabelen aantikken -> druk op ok.

Dan kan je a/b/c/d beantwoorden.

R2 is verklaringskracht, hoge R2 is goed, lage R2 is slecht(met max van 1.0)
  maandag 13 januari 2014 @ 00:32:40 #200
78693 Hanzel_lane
Made by cerror
pi_135423967
thanks voor je snelle respons...

2a en 2b zijn dan wel (redelijk) duidelijk. Ik krijg inderdaad wel een r square uitkomst van 0,038, maar geen idee wat hier mee moet.

en ik heb geen idee wat e bij vraag 2d de bedoeling is!
Op vrijdag 30 juli 2004 13:25 schreef Houzer het volgende:
Hanzel is zo'n knuffelnewbie O+
  maandag 13 januari 2014 @ 09:45:12 #201
78693 Hanzel_lane
Made by cerror
pi_135427396
Naja, ik snap er maar weinig van!

Heb ook nog deze vraag die ik moet beantwoorden...

What is the correlation between the rating of the presented movie and the rating of its
genre? Is it significant?

geen idee!
Op vrijdag 30 juli 2004 13:25 schreef Houzer het volgende:
Hanzel is zo'n knuffelnewbie O+
pi_135430817
Weet je al wat correlatie inhoudt?
Aldus.
pi_135714897
Voor de mensen die geïnteresseerd zijn in R:
https://www.datacamp.com/
En eventueel (want in R):
http://www-bcf.usc.edu/~gareth/ISL/
Aldus.
pi_135714959
Ik moest vorige week dingen met SPSS doen. Ik heb besloten dat ik het in de toekomst ga weigeren. :')
Ja doei.
  User die het meest klaagt 2022 dinsdag 21 januari 2014 @ 15:51:54 #205
414785 sirdanilot
pi_135762241
Ik heb een hoop problemen met SPSS.

Even kort verhaaltje:
Twee groepen, Limburgers (LM) en Nederlanders (NL), hebben een bepaalde test gedaan. Hieruit kwam een bepaalde reactie tijd. Ik wil kijken of er een significant verschil is tussen de resultaten van de twee groepen; waren de Limburgers significant sneller, waren de NL significant sneller, of is er geen significant verschil.

Dus ik doe de Independent-Samples T-test.


Maar ik krijg deze foutmelding:
The GROUPS subcommand specifies an unknown variable or a long string variable. This subcommand must specify either a numeric variable or a short string variable. Text found: SubjLang

Wat doe ik fout? Ik ben echt ten einde raad met dit verschrikkelijke programma. :(
Let's all accept each other's differences and different opinions and live together in harmony :)
pi_135762901
Zijn je variabelen wel ingesteld als metric?
  User die het meest klaagt 2022 dinsdag 21 januari 2014 @ 16:09:36 #207
414785 sirdanilot
pi_135762958
Waar staat dat? Ik zie wel numeric en scale. De Reactietijd is een 'number' en 'scale', omdat dit gewoon een waarde is van 0 tot heel veel duizend. De rest is allemaal 'string' en 'nominal'.
Let's all accept each other's differences and different opinions and live together in harmony :)
pi_135763782
quote:
0s.gif Op dinsdag 21 januari 2014 15:51 schreef sirdanilot het volgende:
Ik heb een hoop problemen met SPSS.

Even kort verhaaltje:
Twee groepen, Limburgers (LM) en Nederlanders (NL), hebben een bepaalde test gedaan. Hieruit kwam een bepaalde reactie tijd. Ik wil kijken of er een significant verschil is tussen de resultaten van de twee groepen; waren de Limburgers significant sneller, waren de NL significant sneller, of is er geen significant verschil.

Dus ik doe de Independent-Samples T-test.
[ link | afbeelding ]

Maar ik krijg deze foutmelding:
The GROUPS subcommand specifies an unknown variable or a long string variable. This subcommand must specify either a numeric variable or a short string variable. Text found: SubjLang

Wat doe ik fout? Ik ben echt ten einde raad met dit verschrikkelijke programma. :(
Heb je de cellen met de Limburger/Nederlander variabele gecodeerd in cijfers en deze cijfers labels gegeven? Of heb je in die cellen gewoon echt LM en NL getypt?
pi_135763963
quote:
0s.gif Op dinsdag 21 januari 2014 16:29 schreef Operc het volgende:

[..]

Heb je de cellen met de Limburger/Nederlander variabele gecodeerd in cijfers en deze cijfers labels gegeven? Of heb je in die cellen gewoon echt LM en NL getypt?
Even geprobeerd, maakt geen klap uit, doet het bij beide. Is er misschien 1 rij (of meerdere) waarin iets anders staat dan LM/NL of de reactietijd? (Zoals het woord 'reactietijd' bijvoorbeeld?)

EDIT: Met een string variable als grouping variable zou je deze syntax dus gebruiken:
SPOILER
Om spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.
  User die het meest klaagt 2022 dinsdag 21 januari 2014 @ 17:04:49 #210
414785 sirdanilot
pi_135765398
Ik vind echt alleen LM en NL in de kolom...

Helaas geeft het syntax ding dezelfde foutmelding:

The GROUPS subcommand specifies an unknown variable or a long string variable. This subcommand must specify either a numeric variable or a short string variable. Text found: SubjLang
Let's all accept each other's differences and different opinions and live together in harmony :)
  User die het meest klaagt 2022 dinsdag 21 januari 2014 @ 17:11:02 #211
414785 sirdanilot
pi_135765665
quote:
0s.gif Op dinsdag 21 januari 2014 16:29 schreef Operc het volgende:

[..]

Heb je de cellen met de Limburger/Nederlander variabele gecodeerd in cijfers en deze cijfers labels gegeven? Of heb je in die cellen gewoon echt LM en NL getypt?
Had inderdaad gewoon getypt, stom ! Nu doet hij wel iets. Dank *O*
Let's all accept each other's differences and different opinions and live together in harmony :)
pi_135766394
quote:
0s.gif Op dinsdag 21 januari 2014 17:11 schreef sirdanilot het volgende:

[..]

Had inderdaad gewoon getypt, stom ! Nu doet hij wel iets. Dank *O*
Zelfs met die laatste variant zou het wel moeten werken, maar fijn dat je weer verder kunt. :)
  User die het meest klaagt 2022 dinsdag 21 januari 2014 @ 17:34:26 #213
414785 sirdanilot
pi_135766579
Misschien heb ik een oudere versie van spss?
Let's all accept each other's differences and different opinions and live together in harmony :)
pi_135767006
quote:
0s.gif Op dinsdag 21 januari 2014 17:34 schreef sirdanilot het volgende:
Misschien heb ik een oudere versie van spss?
Zou kunnen, of een iets andere variabele instelling ofzo. :)
  donderdag 23 januari 2014 @ 23:08:14 #215
401956 _Dido_
Remember me!
pi_135875001
Wat is eigenlijk het verschil tussen spss en R? :) kunnen ze precies dezelfde dingen? Ik wil mn statistiek- en spss-kennis weer afstoffen :)
To see a world in a grain of sand
And a heaven in a wild flower,
Hold infinity in the palm of your hand
And eternity in an hour.
pi_136053301
Wat tof dat dit topic er is! Ook al ontdek je het pas als je het nodig hebt.. ;) Ik heb een SPSS/statistiek vraagje. In de resultaten zie je vaak zo'n tabel met gegevens over de proefpersonen, meestal means en SD's. Daarachter staat dan ook een kolom met F-waarden en * voor significant of niet.
Mijn vraag is, hoe bereken je nou die F-waardes, voor bijvoorbeeld zoiets als het procent mannen in de sample? Het is vast héél simpel, maar ik kom er maar niet achter hoe ik dit bereken in SPSS :{
Heeft iemand een idee?
  Redactie Games dinsdag 28 januari 2014 @ 15:28:50 #217
181272 crew  Noppie2000
pi_136053678
quote:
0s.gif Op dinsdag 28 januari 2014 15:21 schreef Milchat het volgende:
Wat tof dat dit topic er is! Ook al ontdek je het pas als je het nodig hebt.. ;) Ik heb een SPSS/statistiek vraagje. In de resultaten zie je vaak zo'n tabel met gegevens over de proefpersonen, meestal means en SD's. Daarachter staat dan ook een kolom met F-waarden en * voor significant of niet.
Mijn vraag is, hoe bereken je nou die F-waardes, voor bijvoorbeeld zoiets als het procent mannen in de sample? Het is vast héél simpel, maar ik kom er maar niet achter hoe ik dit bereken in SPSS :{
Heeft iemand een idee?
Wat wil je nu precies weten? Hoe je een F-statistiek krijgt of welk percentage mannen er in je sample zit?
pi_136053729
quote:
0s.gif Op dinsdag 28 januari 2014 15:28 schreef Noppie2000 het volgende:

[..]

Wat wil je nu precies weten? Hoe je een F-statistiek krijgt of welk percentage mannen er in je sample zit?
Nou, beide? Het percentage mannen en of dit een significant percentage is.
pi_136053914
quote:
1s.gif Op donderdag 23 januari 2014 23:08 schreef _Dido_ het volgende:
Wat is eigenlijk het verschil tussen spss en R? :) kunnen ze precies dezelfde dingen? Ik wil mn statistiek- en spss-kennis weer afstoffen :)
SPSS is volgens mij vooral handig om bestaande datasets te analyseren, terwijl je in R de datasets uitgebreid kunt aanpassen. Daarnaast heb je in R veel meer controle over wat je doet (je kunt een grafiek precies zo maken als jij wilt), en je kunt ook real-time data verwerken. R is ook gratis natuurlijk. :)
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  Redactie Games dinsdag 28 januari 2014 @ 15:39:33 #220
181272 crew  Noppie2000
pi_136054275
quote:
0s.gif Op dinsdag 28 januari 2014 15:29 schreef Milchat het volgende:

[..]

Nou, beide? Het percentage mannen en of dit een significant percentage is.
Percentage mannen kan je simpelweg berekenen door (ik denk via desciptives) te vragen naar de hoeveelheden mannelijke en vrouwelijke proefpersonen. Dan aantal mannelijke proefpersonen delen door het totaal aantal proefpersonen vermenigvuldigen met 100 :)

Of het een significant percentage is, waar wil je dat voor weten? Denk sowieso niet dat je daar een F-statistiek aan moet koppelen.
pi_136054551
quote:
0s.gif Op dinsdag 28 januari 2014 15:39 schreef Noppie2000 het volgende:

[..]

Percentage mannen kan je simpelweg berekenen door (ik denk via desciptives) te vragen naar de hoeveelheden mannelijke en vrouwelijke proefpersonen. Dan aantal mannelijke proefpersonen delen door het totaal aantal proefpersonen vermenigvuldigen met 100 :)

Of het een significant percentage is, waar wil je dat voor weten? Denk sowieso niet dat je daar een F-statistiek aan moet koppelen.
Oké, dat zal ik eens proberen ja.
Het is een tabel met sample characteristics, en onder andere staan daar de F-waardes en significantie van het percentage man, en bijvoorbeeld ook het IQ. Ik wil het ook niet persé weten, maar het schijnt in zo'n overzichtstabel te horen en daarom moet het erbij van mijn begeleider :') Het is een vaag verhaal, I know..
  Redactie Games dinsdag 28 januari 2014 @ 15:46:58 #222
181272 crew  Noppie2000
pi_136054654
quote:
0s.gif Op dinsdag 28 januari 2014 15:45 schreef Milchat het volgende:

[..]

Oké, dat zal ik eens proberen ja.
Het is een tabel met sample characteristics, en onder andere staan daar de F-waardes en significantie van het percentage man, en bijvoorbeeld ook het IQ. Ik wil het ook niet persé weten, maar het schijnt in zo'n overzichtstabel te horen en daarom moet het erbij van mijn begeleider :') Het is een vaag verhaal, I know..
Zou je output eens moeten zien, snap nog niet helemaal hoe of wat :) Wellicht dat iemand anders je hier beter kan helpen, of je moet hier willen posten wat je hebt staan in SPSS natuurlijk.

Zie ook mijn post in het scriptie topic ;)
pi_136055296
Thanks voor het mee denken in elk geval :) Field heb ik al bekeken van kaft tot kaft. Het punt is niet dat ik mijn output niet snap, ik weet niet hoe ik het ín mijn output krijg. Ik wil iets weten, maar heb geen idee hoe ik dat uit SPSS laat rollen.

Hierbij een plaatje van hoe zo'n tabel eruit zou moeten zien (met gevoelige informatie weggewerkt).
SPOILER
Om spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.
  Redactie Games dinsdag 28 januari 2014 @ 16:12:21 #224
181272 crew  Noppie2000
pi_136055905
quote:
0s.gif Op dinsdag 28 januari 2014 15:59 schreef Milchat het volgende:
Thanks voor het mee denken in elk geval :) Field heb ik al bekeken van kaft tot kaft. Het punt is niet dat ik mijn output niet snap, ik weet niet hoe ik het ín mijn output krijg. Ik wil iets weten, maar heb geen idee hoe ik dat uit SPSS laat rollen.

Hierbij een plaatje van hoe zo'n tabel eruit zou moeten zien (met gevoelige informatie weggewerkt).
SPOILER
Om spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.
Mjah, voor zover ik zie is er geen output bij F. Dit zijn gewoon standaard gegevens zoals je zegt. Weet niet hoe je het er bij moet krijgen, maar lijkt me aardig triviaal. Moet het er echt bij? :P
pi_136056187
quote:
1s.gif Op dinsdag 28 januari 2014 16:12 schreef Noppie2000 het volgende:

[..]

Mjah, voor zover ik zie is er geen output bij F. Dit zijn gewoon standaard gegevens zoals je zegt. Weet niet hoe je het er bij moet krijgen, maar lijkt me aardig triviaal. Moet het er echt bij? :P
Nee, dit is geen output. En inderdaad, standaardgegevens, maar die F-waarde moet er echt bij. ;(
Ik zou eigenlijk ook niet weten of je dan significant verschil berekent ten opzichte van de hele sample, of ten opzichte van de andere groepen ofzo. Geen flauw idee :D
Maar misschien dat iemand die hier wel bekend mee is dit leest?
pi_136058241
quote:
0s.gif Op dinsdag 28 januari 2014 16:18 schreef Milchat het volgende:

[..]

Nee, dit is geen output. En inderdaad, standaardgegevens, maar die F-waarde moet er echt bij. ;(
Ik zou eigenlijk ook niet weten of je dan significant verschil berekent ten opzichte van de hele sample, of ten opzichte van de andere groepen ofzo. Geen flauw idee :D
Maar misschien dat iemand die hier wel bekend mee is dit leest?
Om maar even een balletje op te gooien, bedoelt hij niet het percentage Female? Dus: 100 proefpersonen (F=60%) bijvoorbeeld?
pi_136085193
quote:
0s.gif Op dinsdag 28 januari 2014 17:13 schreef Operc het volgende:

[..]

Om maar even een balletje op te gooien, bedoelt hij niet het percentage Female? Dus: 100 proefpersonen (F=60%) bijvoorbeeld?
Maar heb je daar dan ook een F-waarde van?
pi_136085658
quote:
0s.gif Op woensdag 29 januari 2014 10:28 schreef Milchat het volgende:

[..]

Maar heb je daar dan ook een F-waarde van?
Ik bedoelde meer: Zit er niet een communicatie fout tussen jullie dat hij met 'F' aantal vrouwen bedoelde maar het leek alsof hij het had over een F-waarde?
pi_136085710
Ik ben overigens nog nooit een F-waarde op geslacht tegengekomen. Normaal is de F-waarde er een tussen verschillende groepen, gebaseerd op de afhankelijke variabelen. En tenzij je een of ander wazig kloon/DNA experiment hebt gedaan gok ik dat geslacht geen afhankelijke variabele is. :P
pi_136085838
Ik denk alleen maar een fuckability-waarde. Maar dat klopt vast niet.
Ja doei.
pi_136087448
LOL, nee ik bedoel oprecht een F-waarde. Het zou ook tussen groepen kunnen zijn, want ik heb groepen in mijn analyse. Hoeveel procent er man is van elke groep en of dit significant is ofzo? :?

Ik ga mijn begeleider dan wel weer lastig vallen, blijkbaar is het toch niet zo'n domme vraag :')
pi_136087533
quote:
0s.gif Op woensdag 29 januari 2014 10:49 schreef motorbloempje het volgende:
Ik denk alleen maar een fuckability-waarde. Maar dat klopt vast niet.
:9 Dan wil ik alleen het percentage mannen erin, ik voorzie een bias.
  Redactie Games woensdag 29 januari 2014 @ 13:17:58 #233
181272 crew  Noppie2000
pi_136091177
quote:
0s.gif Op woensdag 29 januari 2014 11:38 schreef Milchat het volgende:
LOL, nee ik bedoel oprecht een F-waarde. Het zou ook tussen groepen kunnen zijn, want ik heb groepen in mijn analyse. Hoeveel procent er man is van elke groep en of dit significant is ofzo? :?

Ik ga mijn begeleider dan wel weer lastig vallen, blijkbaar is het toch niet zo'n domme vraag :')
Je kan wel kijken of er een significant verschil zit tussen mannen in de verschillende groepen op je afhankelijke variabelen, als je dat dan misschien bedoelt. Anders zou ik even gaan naar je begeleider ja.
pi_136091650
quote:
0s.gif Op woensdag 29 januari 2014 11:38 schreef Milchat het volgende:
LOL, nee ik bedoel oprecht een F-waarde. Het zou ook tussen groepen kunnen zijn, want ik heb groepen in mijn analyse. Hoeveel procent er man is van elke groep en of dit significant is ofzo? :?

Ik ga mijn begeleider dan wel weer lastig vallen, blijkbaar is het toch niet zo'n domme vraag :')
Verstandig als je een lager cijfer wil hebben ;)

Overigens SPSS :') Ben toch maar geswitched naar wat anders, want hoe langer je met SPSS werkt hoe meer je merkt dat het een heel beperkt programma is.
pi_136091888
quote:
0s.gif Op woensdag 29 januari 2014 10:49 schreef motorbloempje het volgende:
Ik denk alleen maar een fuckability-waarde. Maar dat klopt vast niet.
Als je zo denkt ga je Andy Field briljant vinden. Volgens hem is SPSS een afkorting voor Satan's Personal Statistics Slave. :P

quote:
0s.gif Op woensdag 29 januari 2014 11:38 schreef Milchat het volgende:
LOL, nee ik bedoel oprecht een F-waarde. Het zou ook tussen groepen kunnen zijn, want ik heb groepen in mijn analyse. Hoeveel procent er man is van elke groep en of dit significant is ofzo? :?

Ik ga mijn begeleider dan wel weer lastig vallen, blijkbaar is het toch niet zo'n domme vraag :')
Even vragen waar hij precies de F-waarde van wil hebben kan geen kwaad nee. :)

quote:
0s.gif Op woensdag 29 januari 2014 13:29 schreef Syntix het volgende:

[..]

Verstandig als je een lager cijfer wil hebben ;)

Overigens SPSS :') Ben toch maar geswitched naar wat anders, want hoe langer je met SPSS werkt hoe meer je merkt dat het een heel beperkt programma is.
Ach, je moet wel zelf nadenken, maar vragen om verduidelijking als je feedback krijgt van je begeleider is echt niet desastreus voor je cijfer.
pi_136092236
quote:
0s.gif Op woensdag 29 januari 2014 13:35 schreef Operc het volgende:

[..]

Als je zo denkt ga je Andy Field briljant vinden. Volgens hem is SPSS een afkorting voor Satan's Personal Statistics Slave. :P

[..]

Even vragen waar hij precies de F-waarde van wil hebben kan geen kwaad nee. :)

[..]

Ach, je moet wel zelf nadenken, maar vragen om verduidelijking als je feedback krijgt van je begeleider is echt niet desastreus voor je cijfer.
Eens, tijdens je feedback kun je best zulke vragen stellen. Echter, als je elke week gaat mailen om vragen over SPSS dan kan dat zeker invloed hebben of je cijfer.
pi_136092287
quote:
0s.gif Op woensdag 29 januari 2014 13:44 schreef Syntix het volgende:

[..]

Eens, tijdens je feedback kun je best zulke vragen stellen. Echter, als je elke week gaat mailen om vragen over SPSS dan kan dat zeker invloed hebben of je cijfer.
Klopt, veel universiteiten hebben ook nog wel een SPSS/statistiek helpdesk waar je beter met die vragen terecht kunt (of hier natuurlijk). Al hebben wij meer informatie nodig over wat er nu precies bedoeld wordt. :P
pi_136097200
quote:
0s.gif Op woensdag 29 januari 2014 13:45 schreef Operc het volgende:

[..]

Klopt, veel universiteiten hebben ook nog wel een SPSS/statistiek helpdesk waar je beter met die vragen terecht kunt (of hier natuurlijk). Al hebben wij meer informatie nodig over wat er nu precies bedoeld wordt. :P
Hebben jullie wel mijn plaatje van de tabel bekeken? Als jullie ook allemaal niet begrijpen wat er bedoeld wordt dan vind ik het wel een steeds vreemdere tabel worden..
Stel dat ik de F-waarde van IQ wil weten in die tabel in plaats van geslacht, en je hebt van de 4 verschillende groepen de means en standaard deviaties al in de tabel gezet. Zou het dan gaan om significant verschil in IQ tussen groepen? (Er komt maar 1 F-waarde kolom in de tabel voor verschillende variabelen, dus niet een F waarde per groep t.o.v. de sample).

Stel het gaat dan bij IQ om een significant verschil tussen groepen, hoe krijg je dat dan uit SPSS?
pi_136097319
quote:
0s.gif Op woensdag 29 januari 2014 15:49 schreef Milchat het volgende:

[..]

Hebben jullie wel mijn plaatje van de tabel bekeken? Als jullie ook allemaal niet begrijpen wat er bedoeld wordt dan vind ik het wel een steeds vreemdere tabel worden..
Stel dat ik de F-waarde van IQ wil weten in die tabel in plaats van geslacht, en je hebt van de 4 verschillende groepen de means en standaard deviaties al in de tabel gezet. Zou het dan gaan om significant verschil in IQ tussen groepen? (Er komt maar 1 F-waarde kolom in de tabel voor verschillende variabelen, dus niet een F waarde per groep t.o.v. de sample).

Stel het gaat dan bij IQ om een significant verschil tussen groepen, hoe krijg je dat dan uit SPSS?
Ah, dat verklaart. Ja dan kun je gewoon een ANOVA doen en dan komt de F waarde (en daarna de p-waarde) er vanzelf uitrollen. ^O^
pi_136097495
quote:
0s.gif Op woensdag 29 januari 2014 15:52 schreef Operc het volgende:

[..]

Ah, dat verklaart. Ja dan kun je gewoon een ANOVA doen en dan komt de F waarde (en daarna de p-waarde) er vanzelf uitrollen. ^O^
Ah! Ik wist dat het eenvoudig moest zijn, maar zo eenvoudig.. thanks! :)
  Redactie Games woensdag 29 januari 2014 @ 16:16:45 #241
181272 crew  Noppie2000
pi_136098373
quote:
0s.gif Op woensdag 29 januari 2014 15:52 schreef Operc het volgende:

[..]

Ah, dat verklaart. Ja dan kun je gewoon een ANOVA doen en dan komt de F waarde (en daarna de p-waarde) er vanzelf uitrollen. ^O^
Dit inderdaad. Had dat meteen gezegd joh! ;)
pi_136100889
quote:
0s.gif Op woensdag 29 januari 2014 15:56 schreef Milchat het volgende:

[..]

Ah! Ik wist dat het eenvoudig moest zijn, maar zo eenvoudig.. thanks! :)
Graag gedaan. :)
pi_136170049
Op dit moment ben ik bezig met het analyseren van mijn gegevens voor mijn scriptie. Hierbij loop ik echter tegen een probleem aan bij het gebruik van SPSS

In de enquête hebben respondenten op een 7-punts Likertschaal beoordeeld in welke mate ze een bepaald logo (o.b.v. kleur) vinden passen bij een beschrijving van 1 van de 12 archetypen. Nu wil ik kijken of er een correlatie is tussen de donkerheid van een kleur (licht, normaal, donker) en het archetype met een Pearson's Correlation analysis. Welke variabelen moet ik hiervoor nemen? Kan ik gewoon de output van de vragenlijst nemen of moet ik hier nog dingen in aanpassen? Help!!!
pi_136174492
Jouw variabele is van ordinaal meetniveau en daarom niet geschikt voor correlatie. One-way ANOVA moet je hebben.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_136180522
Hallo!
Ik hoop dat julle mij kunnen helpen met kijken of de dingen die ik wil meten ook gemeten worden met de daarbij behorende toetsen. In oderstaand schema staan de te meten variabelen met de toets waarvan ik denk dat die daarbij hoort.



Hier onder nog een schema waar het zelfde wordt gezegd maar dan met de meetschalen



Bedankt :D!
Baby darling doll face honey
pi_136186757
Goedenavond,

Ik werk voor het eerst met SPSS en ik heb een aantal kruistabellen gemaakt voor verbanden die ik wil bekijken. Deze voldoen aan de voorwaarden voor de chi2-toets, maar ik snap niet hoe ik nou aan de hand van de observed count en de expected count een 'uitspraak' kan doen. Bij een 'ja' 'nee' vraag lukt me dat nog wel nu niet.

Zijn er hier wellicht mensen met een beetje SPSS-kennis die me kunnen helpen? als ik er eentje heb gedaan dan lukken die andere ook wel. Het gaat in het onderstaande voorbeeld-geval over het effect van gratis retour aanbieden op het percentage terugkerende klanten. Ik wil daar gewoon kortweg iets over kunnen zeggen.

http://postimg.org/image/qm35b3p65/

Zeer bedankt alvast :)

P.S. ja ik weet dat ik achteraf ook boven de 40 % verder had moeten tellen, maar de groep die 50 %, 60 % etc. zou antwoorden verwachte ik erg laag.

[ Bericht 3% gewijzigd door stefanschippers op 31-01-2014 21:47:04 ]
  User die het meest klaagt 2022 vrijdag 31 januari 2014 @ 23:06:23 #247
414785 sirdanilot
pi_136191265
Je moet kijken bij Sig (van significance). Sig > 0,05, dus niet significant.

EDIT: Ik zal nog iets verduidelijken

Het gaat erom of de groepen die jij hebt ingedeeld, de waarden 'above chance level' beïnvloeden. Dat wil zeggen; er moet minder dan 5% kans zijn, dat de waarden door toeval gewoon zijn zoals ze zijn. De waarden moeten dus voldoende verschillen van de expected value. De expected value is meestal totaal van de rij * totaal van de kolom / totaal van rijen + kolommen bij elkaar.

Misschien als je je groepen anders indeelt, dat je wel een effect krijgt. Dat is meestal de crux bij dit soort dingen. Je deelt je groepen arbitrair in, en dan rolt er niks uit. Je moet idealiter ook een reden hebben om je groepen in te delen zoals je doet.

De statistiek hier is dus niet zo heel zinnig. Misschien kun je iets van een correlatie-test doen of zo, kijk maar in je handboek. Maar dan moet je eigenlijk eerst een significante chi square hebben? Hier eindigt mijn kennis zo'n beetje.

[ Bericht 47% gewijzigd door sirdanilot op 31-01-2014 23:11:37 ]
Let's all accept each other's differences and different opinions and live together in harmony :)
pi_136195719
quote:
14s.gif Op vrijdag 31 januari 2014 21:40 schreef stefanschippers het volgende:
Goedenavond,

Ik werk voor het eerst met SPSS en ik heb een aantal kruistabellen gemaakt voor verbanden die ik wil bekijken. Deze voldoen aan de voorwaarden voor de chi2-toets, maar ik snap niet hoe ik nou aan de hand van de observed count en de expected count een 'uitspraak' kan doen. Bij een 'ja' 'nee' vraag lukt me dat nog wel nu niet.

Zijn er hier wellicht mensen met een beetje SPSS-kennis die me kunnen helpen? als ik er eentje heb gedaan dan lukken die andere ook wel. Het gaat in het onderstaande voorbeeld-geval over het effect van gratis retour aanbieden op het percentage terugkerende klanten. Ik wil daar gewoon kortweg iets over kunnen zeggen.

http://postimg.org/image/qm35b3p65/

Zeer bedankt alvast :)

P.S. ja ik weet dat ik achteraf ook boven de 40 % verder had moeten tellen, maar de groep die 50 %, 60 % etc. zou antwoorden verwachte ik erg laag.
Ik snap je tabel niet helemaal. Wat heb je precies gedaan qua groepen en vragen?
Ik neem aan dat 'opnieuw kopen' de afhankelijke variabele is? Maar wat is gratis_retourtoepassing dan? En waar staat de ja/nee voor?
pi_136203618
quote:
0s.gif Op vrijdag 31 januari 2014 23:06 schreef sirdanilot het volgende:
Je moet kijken bij Sig (van significance). Sig > 0,05, dus niet significant.

EDIT: Ik zal nog iets verduidelijken

Het gaat erom of de groepen die jij hebt ingedeeld, de waarden 'above chance level' beïnvloeden. Dat wil zeggen; er moet minder dan 5% kans zijn, dat de waarden door toeval gewoon zijn zoals ze zijn. De waarden moeten dus voldoende verschillen van de expected value. De expected value is meestal totaal van de rij * totaal van de kolom / totaal van rijen + kolommen bij elkaar.

Misschien als je je groepen anders indeelt, dat je wel een effect krijgt. Dat is meestal de crux bij dit soort dingen. Je deelt je groepen arbitrair in, en dan rolt er niks uit. Je moet idealiter ook een reden hebben om je groepen in te delen zoals je doet.

De statistiek hier is dus niet zo heel zinnig. Misschien kun je iets van een correlatie-test doen of zo, kijk maar in je handboek. Maar dan moet je eigenlijk eerst een significante chi square hebben? Hier eindigt mijn kennis zo'n beetje.
Bedankt voor je reactie :) Ik heb al gehercodeerd, eerst waren er namelijk nog meer antwoordopties. Maar volgens jou moeten er nog meer groepen samengevoegd worden?
pi_136204128
quote:
0s.gif Op zaterdag 1 februari 2014 01:13 schreef Operc het volgende:

[..]

Ik snap je tabel niet helemaal. Wat heb je precies gedaan qua groepen en vragen?

Ik neem aan dat 'opnieuw kopen' de afhankelijke variabele is? Maar wat is gratis_retourtoepassing dan? En waar staat de ja/nee voor?
Jij ook bedankt voor de reactie! De hypothese die getoetst moet worden is eigenlijk dat aanbieden van gratis retour een positief effect heeft op het percentage bezoekers dat terugkeert na een aankoop. Eerst heb ik dus de winkels gevraagd in een enquête welk percentage van de bezoekers terugkeert en daarna heb ik een aantal vragen gesteld over o.a. wel of geen gratis retour (en nog 10 andere elementen die mogelijk van invloed zijn op een hoger 'terugkeer-percentage' klanten). Nu wil ik dus gaan kijken welke van deze dingen duidelijk invloed hebben.

Dat percentage 'opnieuw kopen' is dan idd de afhankelijke variabele. Maar hoe meet ik dit verband nu (of meet ik dat er geen verband is, dat zou natuurlijk ook nog kunnen ;) ) ?

[ Bericht 3% gewijzigd door stefanschippers op 01-02-2014 14:13:35 ]
pi_136206387
Dus, als ik het goed begrijp zit het als volgt: Je hebt aan de winkeliers gevraagd wat het percentage van mensen is dat terugkomt, introduceert daarna het "gratis terugbrengen" en vraagt vervolgens aan klanten hoe groot ze de kans inschatten dat ze nog een keer terugkomen en je wil die twee cijfers met elkaar vergelijken?

Achteraf kun je er weinig mee, dat begrijp ik, maar het was prettig geweest als je er een iets logischere schaal van had gemaakt, waarbij elke antwoordmogelijkheid een even grote groep procenten weergeeft.
Heb je toevallig de vraag ook gesteld in ja/nee? (dus: ga je nog eens kopen: ja/nee) want deze informatie is lastig te verwerken. Dit komt omdat er een optie 0-20 procent is, waarbij het nogal uitmaakt of iemand echt niet van plan is om nog eens te kopen (0 procent) of de kans niet heel groot is (20 procent).
pi_136207107
quote:
0s.gif Op zaterdag 1 februari 2014 14:54 schreef Operc het volgende:
Dus, als ik het goed begrijp zit het als volgt: Je hebt aan de winkeliers gevraagd wat het percentage van mensen is dat terugkomt, introduceert daarna het "gratis terugbrengen"
Tot zover klopt het idd :)
quote:
en vraagt vervolgens aan klanten hoe groot ze de kans inschatten dat ze nog een keer terugkomen en je wil die twee cijfers met elkaar vergelijken?
Nee, dit niet. Ik heb niets aan de klanten gevraagd. Ik heb de winkels zelf gevraagd hoe hoog het algemene percentage klanten is dat terugkeert. Daarna heb ik gekeken of ze diverse punten die in de literatuur genoemd worden als 'klantenbinder' ingevoerd hebben bij hun beleid. Zo wil ik dus eigenlijk bekijken of winkels die bijvoorbeeld gratis retour aanbieden, beter scoren wat betreft klantenbinding.
quote:
Achteraf kun je er weinig mee, dat begrijp ik, maar het was prettig geweest als je er een iets logischere schaal van had gemaakt, waarbij elke antwoordmogelijkheid een even grote groep procenten weergeeft.
Heb je toevallig de vraag ook gesteld in ja/nee? (dus: ga je nog eens kopen: ja/nee) want deze informatie is lastig te verwerken. Dit komt omdat er een optie 0-20 procent is, waarbij het nogal uitmaakt of iemand echt niet van plan is om nog eens te kopen (0 procent) of de kans niet heel groot is (20 procent).
Ik heb dus de klanten niets gevraagd zoals ik zei ;) het gaat ook er ook niet om dat ze in de toekomst nog van plan zijn terug te keren maar of de winkel op dit moment in het algemeen veel terugkerende klanten heeft of niet.

Het betreft alleen webwinkels, deze kunnen dus aan de hand van statistieken meten hoeveel procent van de klanten blijft (voor degene die dat niet meten, was er de optie 'ik weet het niet').
pi_136208901
quote:
0s.gif Op zaterdag 1 februari 2014 15:15 schreef stefanschippers het volgende:

[..]

Tot zover klopt het idd :)

[..]

Nee, dit niet. Ik heb niets aan de klanten gevraagd. Ik heb de winkels zelf gevraagd hoe hoog het algemene percentage klanten is dat terugkeert. Daarna heb ik gekeken of ze diverse punten die in de literatuur genoemd worden als 'klantenbinder' ingevoerd hebben bij hun beleid. Zo wil ik dus eigenlijk bekijken of winkels die bijvoorbeeld gratis retour aanbieden, beter scoren wat betreft klantenbinding.

[..]

Ik heb dus de klanten niets gevraagd zoals ik zei ;) het gaat ook er ook niet om dat ze in de toekomst nog van plan zijn terug te keren maar of de winkel op dit moment in het algemeen veel terugkerende klanten heeft of niet.

Het betreft alleen webwinkels, deze kunnen dus aan de hand van statistieken meten hoeveel procent van de klanten blijft (voor degene die dat niet meten, was er de optie 'ik weet het niet').
Helder. Is er een mogelijkheid om van de webshops nog een keer de percentages te krijgen maar dan 'precies' zeg maar? Dus zonder antwoordmogelijkheden, maar gewoon een continue schaal van 0-100 procent?
pi_136210874
quote:
0s.gif Op zaterdag 1 februari 2014 16:08 schreef Operc het volgende:

[..]

Helder. Is er een mogelijkheid om van de webshops nog een keer de percentages te krijgen maar dan 'precies' zeg maar? Dus zonder antwoordmogelijkheden, maar gewoon een continue schaal van 0-100 procent?
Dat is inderdaad een stomme fout die ik gemaakt heb. Heerlijke beginnersfout voor een onderzoeker.
Zit daar hét probleem dus, die schaal? Want als dat de oplossing is, dan is het daarvoor nog wel de moeite waard om even opnieuw de respondenten (met schaamte :P) benaderen.
pi_136213746
quote:
14s.gif Op zaterdag 1 februari 2014 17:11 schreef stefanschippers het volgende:

[..]

Dat is inderdaad een stomme fout die ik gemaakt heb. Heerlijke beginnersfout voor een onderzoeker.
Zit daar hét probleem dus, die schaal? Want als dat de oplossing is, dan is het daarvoor nog wel de moeite waard om even opnieuw de respondenten (met schaamte :P) benaderen.
Vanachter mijn computer, waar ikzelf totaal niet merk hoeveel extra tijd het jou kost als ik 'Ja' zeg, is het gemakkelijk om te zeggen "doe maar over" natuurlijk.

Het voordeel van een continue schaal, is dat je parametrisch kunt testen (als de assumpties daarvan kloppen) in plaats van non-parametrisch met tabellen etc. Dit kan ook een type II error verkleinen, waarbij een verschil tussen groepen niet significant wordt geacht, terwijl het dat stiekem wel is. Hoe preciezer de data die jij krijgt (in groepen van 20 procent, in groepen van 1 procent, of zelfs met een decimaal achter de komma.) hoe waarschijnlijker het wordt dat je een significant resultaat vindt, als er daadwerkelijk een verschil is tussen de groepen.

Stel bijvoorbeeld, dat bij de bedrijven uit de "ja" categorie, gemiddeld 10 procent van de klanten terugkomt en uit de "nee" categorie 5 procent van de klanten terugkomt. In de huidige situatie merk je dan geen verschil, omdat van 0-20 procent 1 groep is, terwijl het in realiteit een verdubbeling is van het aantal terugkerende klanten. :)
pi_136232951
quote:
0s.gif Op zaterdag 1 februari 2014 18:45 schreef Operc het volgende:

[..]

Vanachter mijn computer, waar ikzelf totaal niet merk hoeveel extra tijd het jou kost als ik 'Ja' zeg, is het gemakkelijk om te zeggen "doe maar over" natuurlijk.
Nou ja, met een dagje bellen en mailen lukt dat me wel. Vooral omdat een belangrijke variabele is die ik tegen een aantal variabelen wil afzetten..
quote:
Het voordeel van een continue schaal, is dat je parametrisch kunt testen (als de assumpties daarvan kloppen) in plaats van non-parametrisch met tabellen etc. Dit kan ook een type II error verkleinen, waarbij een verschil tussen groepen niet significant wordt geacht, terwijl het dat stiekem wel is. Hoe preciezer de data die jij krijgt (in groepen van 20 procent, in groepen van 1 procent, of zelfs met een decimaal achter de komma.) hoe waarschijnlijker het wordt dat je een significant resultaat vindt, als er daadwerkelijk een verschil is tussen de groepen.

Stel bijvoorbeeld, dat bij de bedrijven uit de "ja" categorie, gemiddeld 10 procent van de klanten terugkomt en uit de "nee" categorie 5 procent van de klanten terugkomt. In de huidige situatie merk je dan geen verschil, omdat van 0-20 procent 1 groep is, terwijl het in realiteit een verdubbeling is van het aantal terugkerende klanten. :)
Bij parametrisch raakte je me even kwijt maar zo snap ik het. Maar in dat geval: moet ik niet een hele andere toets gebruiken?
pi_136233781
quote:
14s.gif Op vrijdag 31 januari 2014 19:36 schreef Crack_ het volgende:
Hallo!
Ik hoop dat julle mij kunnen helpen met kijken of de dingen die ik wil meten ook gemeten worden met de daarbij behorende toetsen. In oderstaand schema staan de te meten variabelen met de toets waarvan ik denk dat die daarbij hoort.

[ afbeelding ]

Hier onder nog een schema waar het zelfde wordt gezegd maar dan met de meetschalen

[ afbeelding ]

Bedankt :D!
Niemand die mij zou kunnen helpen? ;(
Baby darling doll face honey
pi_136234233
quote:
14s.gif Op zondag 2 februari 2014 11:58 schreef stefanschippers het volgende:

[..]

Nou ja, met een dagje bellen en mailen lukt dat me wel. Vooral omdat een belangrijke variabele is die ik tegen een aantal variabelen wil afzetten..

[..]

Bij parametrisch raakte je me even kwijt maar zo snap ik het. Maar in dat geval: moet ik niet een hele andere toets gebruiken?
Ja je gebruikt dan een t-toets of ANOVA, afhankelijk van uit hoeveel groepen je onafhankelijke variabele bestaat (in dit geval 2, ja/nee, dus dan kan een t-toets. Als het er meer worden, moet je richting de ANOVA waarschijnlijk, maar beide zijn geen hogere wiskunde en kunnen makkelijk via SPSS worden gedaan.)
pi_136262547
Beste medemensen,

Ik ben voor mijn stage wat enquêtes aan het analyseren via spss. Nu zijn er sommige vragen die men niet per se hoeft in te vullen. Het gevolg hiervan dat ik veel missing values heb. Naar dit gegeven gaat niet naar mijn interesse uit en ik wil missing values niet terugzien in de diagrammen.

Hoe kan ik er voor zorgen dat de missing values niet worden meegeteld in de grafieken en diagrammen?

Ik hoop dat jullie mij zo snel mogelijk kunnen helpen!

Alvast bedankt,

Groet,
Fabio
pi_136275607
Door ze op missing te zetten.

IF (var = waarde) var = $SYSMIS.
EXE.
Aldus.
pi_136303388
quote:
0s.gif Op zaterdag 1 februari 2014 18:45 schreef Operc het volgende:

[..]

Vanachter mijn computer, waar ikzelf totaal niet merk hoeveel extra tijd het jou kost als ik 'Ja' zeg, is het gemakkelijk om te zeggen "doe maar over" natuurlijk.

Het voordeel van een continue schaal, is dat je parametrisch kunt testen (als de assumpties daarvan kloppen) in plaats van non-parametrisch met tabellen etc. Dit kan ook een type II error verkleinen, waarbij een verschil tussen groepen niet significant wordt geacht, terwijl het dat stiekem wel is. Hoe preciezer de data die jij krijgt (in groepen van 20 procent, in groepen van 1 procent, of zelfs met een decimaal achter de komma.) hoe waarschijnlijker het wordt dat je een significant resultaat vindt, als er daadwerkelijk een verschil is tussen de groepen.

Stel bijvoorbeeld, dat bij de bedrijven uit de "ja" categorie, gemiddeld 10 procent van de klanten terugkomt en uit de "nee" categorie 5 procent van de klanten terugkomt. In de huidige situatie merk je dan geen verschil, omdat van 0-20 procent 1 groep is, terwijl het in realiteit een verdubbeling is van het aantal terugkerende klanten. :)
Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?

[ Bericht 0% gewijzigd door stefanschippers op 03-02-2014 22:08:22 ]
pi_136349432
quote:
0s.gif Op maandag 3 februari 2014 21:34 schreef stefanschippers het volgende:

[..]

Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?
De counts bij een correcte chi-square test moeten minimaal 5 zijn!
  donderdag 6 februari 2014 @ 16:28:09 #263
165047 eleganza
ik hou van koekjes.
pi_136405237
Dacht dat ik hier niet meer terug hoefde te komen, helaas voor mijn laatste ... ALLERLAATSTE analyse nog wel.

Ik wil een crosstab maken met 2 variabelen, waar eentje al vast staat. De andere moet ik berekenen aan de hand van of cases boven/gelijk of onder het gemiddelde zitten. Het wordt dus een 0 (onder het gemiddelde) of 1(gelijk of hoger dan gemiddelde) waarde. Heb nu het volgende gedaan: Compute variable (nieuwe variabele) = oude variabele >= (gemiddelde oude variabele)

Krijg er dan wel uit wat ik wil? Ik heb .00 en 1.00's gekregen, en het lijkt te werken. Is mijn logica hier logisch? Ik volg mezelf namelijk ook niet altijd *O* :@ 8)7
Koekje d'r bij?
pi_136405700
quote:
0s.gif Op donderdag 6 februari 2014 16:28 schreef eleganza het volgende:
Dacht dat ik hier niet meer terug hoefde te komen, helaas voor mijn laatste ... ALLERLAATSTE analyse nog wel.

Ik wil een crosstab maken met 2 variabelen, waar eentje al vast staat. De andere moet ik berekenen aan de hand van of cases boven/gelijk of onder het gemiddelde zitten. Het wordt dus een 0 (onder het gemiddelde) of 1(gelijk of hoger dan gemiddelde) waarde. Heb nu het volgende gedaan: Compute variable (nieuwe variabele) = oude variabele >= (gemiddelde oude variabele)

Krijg er dan wel uit wat ik wil? Ik heb .00 en 1.00's gekregen, en het lijkt te werken. Is mijn logica hier logisch? Ik volg mezelf namelijk ook niet altijd *O* :@ 8)7
Ik neem aan dat je met 'If' hebt gewerkt? Dan zal het wel kloppen ja. :Y
pi_136405757
quote:
0s.gif Op maandag 3 februari 2014 21:34 schreef stefanschippers het volgende:

[..]

Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?
Waarom codeer je naar 0-20% etc? Als je gewoon de absolute percentages hebt (bedrijf A 7%, bedrijf B 43% etc) dan hoef je niet met die chi-squares te klooien en kun je met gemiddeldes, standaarddeviaties en t-toetsen werken. :)

EDIT: En ja, soms is er gewoon ECHT geen verband, zelfs al zou het logisch lijken. ;)
  donderdag 6 februari 2014 @ 17:44:42 #266
165047 eleganza
ik hou van koekjes.
pi_136407791
quote:
0s.gif Op donderdag 6 februari 2014 16:40 schreef Operc het volgende:

[..]

Ik neem aan dat je met 'If' hebt gewerkt? Dan zal het wel kloppen ja. :Y
Niet met if gewerkt, omdat alle cases voor die variabele meetellen voor de berekening en ik die variabelen die er niet aan voldoen niet 'weggooien'. Ik wil voor de attitude de hoogste 50% scheiden van de laatste 50%, gescheiden door het gemiddelde. Gemiddelde berekend voor de attitude (5.25 van 7 max) dus dit gedaan:

Nieuwe var= attitude variabele >= 5.25
Volgens mij is alles nu 1 wat boven of gelijk is aan die 5.25, en alles dat daar niet aan voldoet 0.

Toch? 8)7
Koekje d'r bij?
pi_136409209
quote:
0s.gif Op donderdag 6 februari 2014 17:44 schreef eleganza het volgende:

[..]

Niet met if gewerkt, omdat alle cases voor die variabele meetellen voor de berekening en ik die variabelen die er niet aan voldoen niet 'weggooien'. Ik wil voor de attitude de hoogste 50% scheiden van de laatste 50%, gescheiden door het gemiddelde. Gemiddelde berekend voor de attitude (5.25 van 7 max) dus dit gedaan:

Nieuwe var= attitude variabele >= 5.25
Volgens mij is alles nu 1 wat boven of gelijk is aan die 5.25, en alles dat daar niet aan voldoet 0.

Toch? 8)7
Ohja, dat zal hij automatisch wel regelen dan. Ik zat te denken aan 'recode into different variable' en dan:
if attitude >=5.25 Nieuwe variabele = 1
if attitude <5.25 Nieuwe variabele = 0
Maar jouw methode werkt ook volgens mij. :)

EDIT: Aangezien ik gok dat je een helemaal niet mee eens - helemaal mee eens 7-puntsschaal hebt gebruikt is het effectief 1-5 en 6-7 natuurlijk. :)
  donderdag 6 februari 2014 @ 22:33:03 #268
165047 eleganza
ik hou van koekjes.
pi_136421616
quote:
0s.gif Op donderdag 6 februari 2014 18:31 schreef Operc het volgende:

[..]

Ohja, dat zal hij automatisch wel regelen dan. Ik zat te denken aan 'recode into different variable' en dan:
if attitude >=5.25 Nieuwe variabele = 1
if attitude <5.25 Nieuwe variabele = 0
Maar jouw methode werkt ook volgens mij. :)

EDIT: Aangezien ik gok dat je een helemaal niet mee eens - helemaal mee eens 7-puntsschaal hebt gebruikt is het effectief 1-5 en 6-7 natuurlijk. :)
Attitude is al een opschaling van vijf vragen uit mijn onderzoek, dus zijn het vaak x.xx waarden, waar ze niet helemaal rond zijn omdat het al een gemiddelde is. Die 5.25 is de mediaan van de metingen en ik kijk of de mensen op of boven de mediaan vaker bepaald gedrag vertonen (X/4 functies gebruiken - verwachting is positiever -dus boven mediaan- dat mensen meer van de vier functies gebruiken). Kan ik significant helaas niks over zeggen omdat de verdeling scheef is en de chi-square niet werkt omdat er dus niet vijf respondenten per hokje zijn (als je begrijpt wat ik bedoel :') )

EDIT: Ik zit dat ik niet duidelijk had gemaakt dat ik de kwartielen had berekend en daar t tweede kwartiel van gepakt had.

[ Bericht 3% gewijzigd door eleganza op 06-02-2014 22:47:40 ]
Koekje d'r bij?
pi_136424394
quote:
0s.gif Op donderdag 6 februari 2014 22:33 schreef eleganza het volgende:

[..]

Attitude is al een opschaling van vijf vragen uit mijn onderzoek, dus zijn het vaak x.xx waarden, waar ze niet helemaal rond zijn omdat het al een gemiddelde is. Die 5.25 is de mediaan van de metingen en ik kijk of de mensen op of boven de mediaan vaker bepaald gedrag vertonen (X/4 functies gebruiken - verwachting is positiever -dus boven mediaan- dat mensen meer van de vier functies gebruiken). Kan ik significant helaas niks over zeggen omdat de verdeling scheef is en de chi-square niet werkt omdat er dus niet vijf respondenten per hokje zijn (als je begrijpt wat ik bedoel :') )

EDIT: Ik zit dat ik niet duidelijk had gemaakt dat ik de kwartielen had berekend en daar t tweede kwartiel van gepakt had.
Je chi-square probleem zie ik nog even niet. Hoe groot zijn je groepen <5.25 en >=5.25 en de groepen X = 1/2/3/4?
  vrijdag 7 februari 2014 @ 12:41:50 #270
165047 eleganza
ik hou van koekjes.
pi_136434370
quote:
1s.gif Op donderdag 6 februari 2014 23:31 schreef Operc het volgende:

[..]

Je chi-square probleem zie ik nog even niet. Hoe groot zijn je groepen <5.25 en >=5.25 en de groepen X = 1/2/3/4?
Groepen zijn ongeveer even groot volgens mij, bij attitude is het 41/43, maar all in valt 80% in de 4/4 groep.

FB_NRFUNCT * BI_ATTITUDE Crosstabulation
Count
BI_ATTITUDE Total

funct | laag | hoog
1.00 1 0 1
2.00 2 5 7
3.00 8 7 15
4.00 30 31 61
Total 41 43 84

4 van de 8 cellen hebben een waarde lager dan vijf door die scheve verdeling.

Hij geeft mij nu dit bij chisquare

Chi-Square Tests
Value df Asymp. Sig. (2-sided)
Pearson Chi-Square 2.322a 3 .508
Likelihood Ratio 2.750 3 .432
Linear-by-Linear Association .038 1 .845
N of Valid Cases 84
a 4 cells (50.0%) have expected count less than 5. The minimum expected count is .49. (.45, .45, .15 en .13 voor andere variabelen)

Dat laatste betekent toch dat ik er niks mee kan?

Bij andere vier variabelen in dezelfde crosstab heb ik ook geen significante resultaten, maar ik mag daar ivm die expected count toch niks over zeggen?
Koekje d'r bij?
pi_136435713
quote:
0s.gif Op vrijdag 7 februari 2014 12:41 schreef eleganza het volgende:

[..]

Groepen zijn ongeveer even groot volgens mij, bij attitude is het 41/43, maar all in valt 80% in de 4/4 groep.

FB_NRFUNCT * BI_ATTITUDE Crosstabulation
Count
BI_ATTITUDE Total

funct | laag | hoog
1.00 1 0 1
2.00 2 5 7
3.00 8 7 15
4.00 30 31 61
Total 41 43 84

4 van de 8 cellen hebben een waarde lager dan vijf door die scheve verdeling.

Hij geeft mij nu dit bij chisquare

Chi-Square Tests
Value df Asymp. Sig. (2-sided)
Pearson Chi-Square 2.322a 3 .508
Likelihood Ratio 2.750 3 .432
Linear-by-Linear Association .038 1 .845
N of Valid Cases 84
a 4 cells (50.0%) have expected count less than 5. The minimum expected count is .49. (.45, .45, .15 en .13 voor andere variabelen)

Dat laatste betekent toch dat ik er niks mee kan?

Bij andere vier variabelen in dezelfde crosstab heb ik ook geen significante resultaten, maar ik mag daar ivm die expected count toch niks over zeggen?
In principe moet je analyse strategie vaststaan voor je de data verzamelt, omdat het anders goochelen wordt in plaats van echt statistiek toepassen. Ik verwacht echter dat als je in je scriptie (?) schrijft dat je niets gevonden hebt en daarom nog een beetje bent gaan klooien, dat ze die onderzoekende houding misschien wel kunnen waarderen. (Zolang je er maar bij zegt dat je van te voren iets anders had bedacht.)

Als je kijkt naar de scores in de groepen, dan zie je dat er eigenlijk tussen laag en hoog weinig verschil zit (verschillen van -1, 3, -1, 1). Het is dus niet zo waarschijnlijk dat daar significante resultaten uit zullen komen, even afgezien van de minimale groepsgroottes. Dat kan deels komen door een plafondeffect. Je ziet dat het grootste deel van de deelnemers (61 van de 84) de maximale score heeft bereikt. Een mogelijke invloed van attitude om de score te verhogen in een van de twee groepen is daardoor dus vrijwel onmogelijk. Misschien had je een grotere spreiding gevonden als je maximale score 10 of hoger was geweest, maar dat weet je niet.

Wat je nog zou kunnen proberen, is score 1 en 2 eruit laten, wegens te weinig proefpersonen en in plaats van een mediaan als ijkpunt voor wat hoog en wat laag is, het eerste en derde kwartiel pakken. Je gooit dan een deel van je data weg, maar je kunt dat eventueel beredeneren door te stellen dat een score van 5.24 nu niet echt van 5.26 afwijkt, terwijl je volgens de eerste methode deze twee wel als totaal anders ziet (laag en hoog). Als je zoiets doet zou ik wel eerst een analyse met alle data draaien en in je scriptie opnemen, voordat je aan dergelijke subgroepen begint. Een heldere omschrijving van en redenatie waarom je bepaalde statistische keuzes maakt is heel belangrijk voor lezers van een artikel. :)
  vrijdag 7 februari 2014 @ 13:52:53 #272
165047 eleganza
ik hou van koekjes.
pi_136436681
quote:
0s.gif Op vrijdag 7 februari 2014 13:26 schreef Operc het volgende:

[..]

In principe moet je analyse strategie vaststaan voor je de data verzamelt, omdat het anders goochelen wordt in plaats van echt statistiek toepassen. Ik verwacht echter dat als je in je scriptie (?) schrijft dat je niets gevonden hebt en daarom nog een beetje bent gaan klooien, dat ze die onderzoekende houding misschien wel kunnen waarderen. (Zolang je er maar bij zegt dat je van te voren iets anders had bedacht.)

Als je kijkt naar de scores in de groepen, dan zie je dat er eigenlijk tussen laag en hoog weinig verschil zit (verschillen van -1, 3, -1, 1). Het is dus niet zo waarschijnlijk dat daar significante resultaten uit zullen komen, even afgezien van de minimale groepsgroottes. Dat kan deels komen door een plafondeffect. Je ziet dat het grootste deel van de deelnemers (61 van de 84) de maximale score heeft bereikt. Een mogelijke invloed van attitude om de score te verhogen in een van de twee groepen is daardoor dus vrijwel onmogelijk. Misschien had je een grotere spreiding gevonden als je maximale score 10 of hoger was geweest, maar dat weet je niet.

Wat je nog zou kunnen proberen, is score 1 en 2 eruit laten, wegens te weinig proefpersonen en in plaats van een mediaan als ijkpunt voor wat hoog en wat laag is, het eerste en derde kwartiel pakken. Je gooit dan een deel van je data weg, maar je kunt dat eventueel beredeneren door te stellen dat een score van 5.24 nu niet echt van 5.26 afwijkt, terwijl je volgens de eerste methode deze twee wel als totaal anders ziet (laag en hoog). Als je zoiets doet zou ik wel eerst een analyse met alle data draaien en in je scriptie opnemen, voordat je aan dergelijke subgroepen begint. Een heldere omschrijving van en redenatie waarom je bepaalde statistische keuzes maakt is heel belangrijk voor lezers van een artikel. :)
Nja, dit was een aanvulling van mijn docente die eigenlijk antwoord geeft op mijn hoofdvraag (in welke mate hebben variabele a,b,c,d,e invloed op het aantal functies dat er gebruikt wordt (zijn er 4 onderzocht, dus max aantal is 4)?). Mijn logica in mijn scriptie is sowieso ver te zoeken, ben alles door elkaar heen gaan doen, want zo werk ik ook. Plus, mijn lack of insight in statistics heeft hier wel de overhand. Ik heb allerlei leuke ideeën maar dan daar de passende analyse bij bedenken is een tweede. 8)7 (so much for inzicht in statistiek als masterstudent)

Wat ik hier eigenlijk van wil weten is gebruiken mensen met een hogere attitude (hoger dan de mediaan in mijn geval) nou meer functies dan mensen met een lagere attitude dan de mediaan? Dat heb ik als het goed is berekend met die eerste crosstabs (1,2,3,4 waren het aantal functies), maar is dan die chisquare 'valide' genoeg om te zeggen dat het niet significant is? Doet me verder niks dat het niet significant is, is ook een resultaat *O* - maar het moet wel valide zijn als ik dat wil aanvoeren als argument! :+
Koekje d'r bij?
pi_136436785
quote:
0s.gif Op vrijdag 7 februari 2014 13:52 schreef eleganza het volgende:

[..]

Nja, dit was een aanvulling van mijn docente die eigenlijk antwoord geeft op mijn hoofdvraag (in welke mate hebben variabele a,b,c,d,e invloed op het aantal functies dat er gebruikt wordt (zijn er 4 onderzocht, dus max aantal is 4)?). Mijn logica in mijn scriptie is sowieso ver te zoeken, ben alles door elkaar heen gaan doen, want zo werk ik ook. Plus, mijn lack of insight in statistics heeft hier wel de overhand. Ik heb allerlei leuke ideeën maar dan daar de passende analyse bij bedenken is een tweede. 8)7 (so much for inzicht in statistiek als masterstudent)

Wat ik hier eigenlijk van wil weten is gebruiken mensen met een hogere attitude (hoger dan de mediaan in mijn geval) nou meer functies dan mensen met een lagere attitude dan de mediaan? Dat heb ik als het goed is berekend met die eerste crosstabs (1,2,3,4 waren het aantal functies), maar is dan die chisquare 'valide' genoeg om te zeggen dat het niet significant is? Doet me verder niks dat het niet significant is, is ook een resultaat *O* - maar het moet wel valide zijn als ik dat wil aanvoeren als argument! :+
Je kunt niet heel veel anders volgens mij, dus zou die conclusie inderdaad trekken. Wel even opletten dat niet significant niet betekent dat er zeker geen invloed is, enkel dat je die niet hebt gemeten. ;)
  vrijdag 7 februari 2014 @ 14:20:19 #274
165047 eleganza
ik hou van koekjes.
pi_136437609
quote:
0s.gif Op vrijdag 7 februari 2014 13:55 schreef Operc het volgende:

[..]

Je kunt niet heel veel anders volgens mij, dus zou die conclusie inderdaad trekken. Wel even opletten dat niet significant niet betekent dat er zeker geen invloed is, enkel dat je die niet hebt gemeten. ;)
Uiteraard, uiteraard :+ Over het algemeen is er wel een positievere wending, dus hoe positiever men op een variabele scoort, des te meer functies respondenten gebruiken, maar het is dus niet significant *)

* eleganza heeft net antwoord gegeven op haar onderzoeksvraag uit haar scriptie *O*
Koekje d'r bij?
pi_136438783
quote:
0s.gif Op vrijdag 7 februari 2014 14:20 schreef eleganza het volgende:

[..]

Uiteraard, uiteraard :+ Over het algemeen is er wel een positievere wending, dus hoe positiever men op een variabele scoort, des te meer functies respondenten gebruiken, maar het is dus niet significant *)

* eleganza heeft net antwoord gegeven op haar onderzoeksvraag uit haar scriptie *O*
Gefeliciteerd! ^O^
pi_136703455
Ik ben momenteel een syntax aan het schrijven voor een reeks onderzoek die eraan gaan komen.

Nou wil ik een standaard syntax schrijven die een categorial variable omzet naar een dummy.
Voorbeeld:

Van variabele 'locatie' zijn duizend mogelijkheden van 1 t/m 1000.
In onderzoek A worden locaties 100, 200 en 300 aangevinkt.

Voor de variabele 'locatie' wil ik dan voor locatie 100, 200 en 300 een dummy gemaakt wordt.
Er komen dan dus drie nieuwe variabelen bij.

Is dit op één of andere manier mogelijk geautomatiseerd doen?
pi_136704357
quote:
0s.gif Op vrijdag 14 februari 2014 14:40 schreef Droplollie het volgende:
Ik ben momenteel een syntax aan het schrijven voor een reeks onderzoek die eraan gaan komen.

Nou wil ik een standaard syntax schrijven die een categorial variable omzet naar een dummy.
Voorbeeld:

Van variabele 'locatie' zijn duizend mogelijkheden van 1 t/m 1000.
In onderzoek A worden locaties 100, 200 en 300 aangevinkt.

Voor de variabele 'locatie' wil ik dan voor locatie 100, 200 en 300 een dummy gemaakt wordt.
Er komen dan dus drie nieuwe variabelen bij.

Is dit op één of andere manier mogelijk geautomatiseerd doen?
Als het niet ingewikkelder wordt dan dit:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Do IF locatie=100.
   compute locatie100 = 1.
   compute locatie200 = 0.
   compute locatie300 = 0.
Else if locatie=200.
   compute locatie100 = 0.
   compute locatie200 = 1.
   compute locatie300 = 0.
Else if locatie = 300.
   compute locatie100 = 0.
   compute locatie200 = 0.
   compute locatie300 = 1.
Else.
   compute locatie100 = 0.
   compute locatie200 = 0.
   compute locatie300 = 0.
End if.
Execute.

Maar volgens mij zijn er ook wel mooiere macro's voor creëren van dummies te vinden.

[ Bericht 0% gewijzigd door dotKoen op 14-02-2014 15:19:06 ]
pi_136707252
quote:
0s.gif Op vrijdag 14 februari 2014 15:04 schreef dotKoen het volgende:

[..]

Als het niet ingewikkelder wordt dan dit:
[ code verwijderd ]

Maar volgens mij zijn er ook wel mooiere macro's voor creëren van dummies te vinden.
Die syntax ken ik, maar ik wil dan dus van alle mogelijke locaties (1 - 10.000) een dummy hebben.
Dus mogelijk zit er locatie 101 tussen. Dan wordt het met jouw voorbeeld niet als dummy gepakt.
pi_136707437
quote:
0s.gif Op vrijdag 14 februari 2014 16:32 schreef Droplollie het volgende:

[..]

Die syntax ken ik, maar ik wil dan dus van alle mogelijke locaties (1 - 10.000) een dummy hebben.
Dus mogelijk zit er locatie 101 tussen. Dan wordt het met jouw voorbeeld niet als dummy gepakt.
Dat moet je dus met een macro doen. Zoiets als http://www.glennlthompson.com/?p=92.
pi_136884265
Hoe maak ik een univariaat databestand multivariaat? Ik heb dit al eens gedaan (met syntax) maar ben het vergeten :') Google geeft me niet wat ik moet hebben (of ik gebruik de verkeerde termen)
Oftewel:
1
2
3
4
5
6
naam1 geslacht score 1
naam1 geslacht score 2
naam1 geslacht score 3
naam2 geslacht score 1
naam2 geslacht score 2
naam2 geslacht score 3
moet worden
1
2
naam1 geslacht score 1 score 2 score 3
naam2 geslacht score 1 score 2 score 3
Edgar Davids over Danny Buijs na Ajax-Feyenoord (4-1, 4/2/07): Luister eens, het is niet de eerste keer dat jongetjes zich willen bewijzen en zeker ook niet de laatste keer.
pi_136884661
Met 'restructure'. Is een SPSS functie (ergens in een menu te vinden).
Aldus.
pi_136892872
quote:
2s.gif Op woensdag 19 februari 2014 10:53 schreef Z het volgende:
Met 'restructure'. Is een SPSS functie (ergens in een menu te vinden).
_O_
Edgar Davids over Danny Buijs na Ajax-Feyenoord (4-1, 4/2/07): Luister eens, het is niet de eerste keer dat jongetjes zich willen bewijzen en zeker ook niet de laatste keer.
pi_137197620
Vraagje: Ik ben nu bezig met multipele lineaire regressie en heb voor mijn analyses een aantal log transformaties gedaan, zodat ze wat normaler verdeeld zijn. Van deze loggetransformeerde variabele heb ik een z-score berekend, zodat ze gestandaardiseerd zijn.

Wordt mijn estimate bij mijn ouput dan nu ook een beta i.p.v een b?
Of moet ik hiervoor van ALLE variabele een z-score berekenen en hiermee de analyses uitvoeren?
pi_137211609
quote:
0s.gif Op donderdag 27 februari 2014 13:54 schreef Krizzyboy89 het volgende:
Vraagje: Ik ben nu bezig met multipele lineaire regressie en heb voor mijn analyses een aantal log transformaties gedaan, zodat ze wat normaler verdeeld zijn.
Is dat uberhaupt nodig? een hardnekkig misverstand is dat data normaal verdeeld moeten zijn voor parametrische testen, maar dat is helemaal niet de assumptie, deze is slechts dat de means normaal verdeeld zijn.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137888578
Oké, ik heb een hele stomme vraag.
Ik wil een gemiddelde score berekenen waarbij missings niet worden meegenomen, maar de overige waarden van de ppn wel.

Nu had ik (in syntax) gedaan:
compute bladibla = mean(x, y, z).
Missing values staat ingevuld in variable view.

Wat schetst mijn verbazing? SPSS rekent missing values gewoon als waarde mee. Aangezien ik een grote waarde voor missing had, heb ik nu dus ook idioot grote schaalgemiddelden. Hoe kan ik dit oplossen en een normaal schaalgemiddelde berekenen?

Edit: laat maar. Ik heb het antwoord al. Bij omscoren had één item geen missing value.

[ Bericht 8% gewijzigd door babybanaan op 18-03-2014 16:39:01 ]
  dinsdag 18 maart 2014 @ 17:49:17 #286
219590 oompaloompa
doompadeedee
pi_137891665
Ik begrijp niet waarom mensen uberhaupt nummers invoeren bij missing values (alhoewel wij het ook aanleerden met "999") waarom zou je die cellen niet gewoon leeg laten?

Of heb ik al die jaren een superhandige functie gemist ergens? :D
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137892006
Geen idee. Ik deed het ook nooit, maar ik moet het tegenwoordig doen. Dit soort dingen haal je er wel mee uit. Maar als ik die missing values nooit had ingevuld, dan had ik het probleem nooit gehad. Dus; geen idee.
pi_137892013
quote:
0s.gif Op dinsdag 18 maart 2014 17:49 schreef oompaloompa het volgende:
Ik begrijp niet waarom mensen uberhaupt nummers invoeren bij missing values (alhoewel wij het ook aanleerden met "999") waarom zou je die cellen niet gewoon leeg laten?

Of heb ik al die jaren een superhandige functie gemist ergens? :D
Het heeft te maken met het soort missing value dat je hebt. Niets invullen is een system missing en wel iets invullen maar het aanstippen als missing is een andere missing.
De link hieronder legt er wat over uit, met het volgende voorbeeld over het verschil tussen die twee bij het analyseren:
quote:
There is no way to get a system missing value to appear in a crosstabs table. The closest you will come is to change the system-missing value to a user-missing value. This can be accomplished with a recode command, as is shown below. The keyword sysmis can be used on the recode command, and it stands for the system-missing value.
http://www.ats.ucla.edu/stat/spss/modules/missing.htm
  dinsdag 18 maart 2014 @ 18:05:43 #289
219590 oompaloompa
doompadeedee
pi_137892178
quote:
0s.gif Op dinsdag 18 maart 2014 17:59 schreef Operc het volgende:

[..]

Het heeft te maken met het soort missing value dat je hebt. Niets invullen is een system missing en wel iets invullen maar het aanstippen als missing is een andere missing.
De link hieronder legt er wat over uit, met het volgende voorbeeld over het verschil tussen die twee bij het analyseren:

[..]

http://www.ats.ucla.edu/stat/spss/modules/missing.htm
dank!
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137892200
quote:
0s.gif Op dinsdag 18 maart 2014 18:05 schreef oompaloompa het volgende:

[..]

dank!
Graag gedaan. :)
(ik moest het zelf ook even opzoeken, want ik wist niet precies meer hoe het zat.)
pi_138113735
Niet zozeer een inhoudelijke vraag, meer een technische maar wellicht dat iemand er ervaring mee heeft. Tijdens het analyseren van mijn data maak ik af en toe een crosstab, dit resulteert erin dat SPSS compleet de pan uit flipt met dit als resultaat:



Zoals je kan zien staat de crosstab werkelijk waar all over the place, eigenlijk volgt alles mijn muis een beetje, zo gauw ik naar data view of variable view ga verschuift daar alles ook met de muis mee :S

EDIT: hij doet het nu meteen na het openen van het programma zonder ook maar een actie te hebben ondernomen...
  maandag 24 maart 2014 @ 14:52:04 #292
219590 oompaloompa
doompadeedee
pi_138114712
quote:
0s.gif Op maandag 24 maart 2014 14:25 schreef Thrills het volgende:
Niet zozeer een inhoudelijke vraag, meer een technische maar wellicht dat iemand er ervaring mee heeft. Tijdens het analyseren van mijn data maak ik af en toe een crosstab, dit resulteert erin dat SPSS compleet de pan uit flipt met dit als resultaat:

[ afbeelding ]

Zoals je kan zien staat de crosstab werkelijk waar all over the place, eigenlijk volgt alles mijn muis een beetje, zo gauw ik naar data view of variable view ga verschuift daar alles ook met de muis mee :S

EDIT: hij doet het nu meteen na het openen van het programma zonder ook maar een actie te hebben ondernomen...
Geen oplossing, misschien wel omweg trucje maar waarom doe je een crosstab? Zolang je geen chi-squares oid nodig hebt is het misschien gemakkelijker split file en frequencies te gebruiken?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!fotograaf woensdag 26 maart 2014 @ 21:57:32 #293
145146 Andyy
pi_138208558
Hoe heet een design met alleen drie condities (intern, extern en controle) zonder verdere variabele?
pi_138213542
quote:
6s.gif Op woensdag 26 maart 2014 21:57 schreef Andyy het volgende:
Hoe heet een design met alleen drie condities (intern, extern en controle) zonder verdere variabele?
Neem aan dat je ook een afhankelijke variabele hebt, anders is het een beetje een flutdesign :D
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!fotograaf donderdag 27 maart 2014 @ 00:14:57 #295
145146 Andyy
pi_138214368
Reactietijd en wel of geen hulp.
1 blok geleden statistiek afgesloten, nu al deze shit vergeten :')
3x2 mixed design dus, thanks :@
pi_138216661
quote:
6s.gif Op donderdag 27 maart 2014 00:14 schreef Andyy het volgende:
Reactietijd en wel of geen hulp.
1 blok geleden statistiek afgesloten, nu al deze shit vergeten :')
3x2 mixed design dus, thanks :@
Als wel of geen hulp bij dezelfde proefpersoon gevarieerd is, is het idd een mixed design.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!fotograaf donderdag 27 maart 2014 @ 11:10:19 #297
145146 Andyy
pi_138220677
quote:
0s.gif Op donderdag 27 maart 2014 06:54 schreef oompaloompa het volgende:

[..]

Als wel of geen hulp bij dezelfde proefpersoon gevarieerd is, is het idd een mixed design.
Kut, ze staan allemaal los van elkaar, between subjects design dus
Je brengt het naar boven zonder het te zeggen :D
pi_138229608
quote:
6s.gif Op donderdag 27 maart 2014 11:10 schreef Andyy het volgende:

[..]

Kut, ze staan allemaal los van elkaar, between subjects design dus
Je brengt het naar boven zonder het te zeggen :D
:) :)
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138537181
Stel een groep participanten vertonen bepaald gedrag. Vervolgens neem je een screeningsinstrument bij ze af om dit gedrag in beeld te brengen en deze patiënten hulp aan te bieden. Na een jaar ga je checken hoe het gaat en of de situatie verbeterd is. Wat soort onderzoek is dit? (dit vergelijk je eventueel met een controle groep) hoe kun je dit het beste meten, dus welke methode voor SPSS?
  zaterdag 5 april 2014 @ 14:25:08 #300
219590 oompaloompa
doompadeedee
pi_138537922
quote:
0s.gif Op zaterdag 5 april 2014 13:49 schreef puspuistje het volgende:
Stel een groep participanten vertonen bepaald gedrag. Vervolgens neem je een screeningsinstrument bij ze af om dit gedrag in beeld te brengen en deze patiënten hulp aan te bieden. Na een jaar ga je checken hoe het gaat en of de situatie verbeterd is. Wat soort onderzoek is dit? (dit vergelijk je eventueel met een controle groep) hoe kun je dit het beste meten, dus welke methode voor SPSS?
repeated measures / within participants / multilevel

het gemakkelijkste gebriuk je een mancova voor analyse.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138538139
quote:
0s.gif Op zaterdag 5 april 2014 14:25 schreef oompaloompa het volgende:

[..]

repeated measures / within participants / multilevel

het gemakkelijkste gebriuk je een mancova voor analyse.
Thnx! is dit een cohort studie?
abonnement Unibet Coolblue
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')