abonnement Unibet Coolblue Bitvavo
pi_136232951
quote:
0s.gif Op zaterdag 1 februari 2014 18:45 schreef Operc het volgende:

[..]

Vanachter mijn computer, waar ikzelf totaal niet merk hoeveel extra tijd het jou kost als ik 'Ja' zeg, is het gemakkelijk om te zeggen "doe maar over" natuurlijk.
Nou ja, met een dagje bellen en mailen lukt dat me wel. Vooral omdat een belangrijke variabele is die ik tegen een aantal variabelen wil afzetten..
quote:
Het voordeel van een continue schaal, is dat je parametrisch kunt testen (als de assumpties daarvan kloppen) in plaats van non-parametrisch met tabellen etc. Dit kan ook een type II error verkleinen, waarbij een verschil tussen groepen niet significant wordt geacht, terwijl het dat stiekem wel is. Hoe preciezer de data die jij krijgt (in groepen van 20 procent, in groepen van 1 procent, of zelfs met een decimaal achter de komma.) hoe waarschijnlijker het wordt dat je een significant resultaat vindt, als er daadwerkelijk een verschil is tussen de groepen.

Stel bijvoorbeeld, dat bij de bedrijven uit de "ja" categorie, gemiddeld 10 procent van de klanten terugkomt en uit de "nee" categorie 5 procent van de klanten terugkomt. In de huidige situatie merk je dan geen verschil, omdat van 0-20 procent 1 groep is, terwijl het in realiteit een verdubbeling is van het aantal terugkerende klanten. :)
Bij parametrisch raakte je me even kwijt maar zo snap ik het. Maar in dat geval: moet ik niet een hele andere toets gebruiken?
pi_136233781
quote:
14s.gif Op vrijdag 31 januari 2014 19:36 schreef Crack_ het volgende:
Hallo!
Ik hoop dat julle mij kunnen helpen met kijken of de dingen die ik wil meten ook gemeten worden met de daarbij behorende toetsen. In oderstaand schema staan de te meten variabelen met de toets waarvan ik denk dat die daarbij hoort.

[ afbeelding ]

Hier onder nog een schema waar het zelfde wordt gezegd maar dan met de meetschalen

[ afbeelding ]

Bedankt :D!
Niemand die mij zou kunnen helpen? ;(
Baby darling doll face honey
pi_136234233
quote:
14s.gif Op zondag 2 februari 2014 11:58 schreef stefanschippers het volgende:

[..]

Nou ja, met een dagje bellen en mailen lukt dat me wel. Vooral omdat een belangrijke variabele is die ik tegen een aantal variabelen wil afzetten..

[..]

Bij parametrisch raakte je me even kwijt maar zo snap ik het. Maar in dat geval: moet ik niet een hele andere toets gebruiken?
Ja je gebruikt dan een t-toets of ANOVA, afhankelijk van uit hoeveel groepen je onafhankelijke variabele bestaat (in dit geval 2, ja/nee, dus dan kan een t-toets. Als het er meer worden, moet je richting de ANOVA waarschijnlijk, maar beide zijn geen hogere wiskunde en kunnen makkelijk via SPSS worden gedaan.)
pi_136262547
Beste medemensen,

Ik ben voor mijn stage wat enquêtes aan het analyseren via spss. Nu zijn er sommige vragen die men niet per se hoeft in te vullen. Het gevolg hiervan dat ik veel missing values heb. Naar dit gegeven gaat niet naar mijn interesse uit en ik wil missing values niet terugzien in de diagrammen.

Hoe kan ik er voor zorgen dat de missing values niet worden meegeteld in de grafieken en diagrammen?

Ik hoop dat jullie mij zo snel mogelijk kunnen helpen!

Alvast bedankt,

Groet,
Fabio
pi_136275607
Door ze op missing te zetten.

IF (var = waarde) var = $SYSMIS.
EXE.
Aldus.
pi_136303388
quote:
0s.gif Op zaterdag 1 februari 2014 18:45 schreef Operc het volgende:

[..]

Vanachter mijn computer, waar ikzelf totaal niet merk hoeveel extra tijd het jou kost als ik 'Ja' zeg, is het gemakkelijk om te zeggen "doe maar over" natuurlijk.

Het voordeel van een continue schaal, is dat je parametrisch kunt testen (als de assumpties daarvan kloppen) in plaats van non-parametrisch met tabellen etc. Dit kan ook een type II error verkleinen, waarbij een verschil tussen groepen niet significant wordt geacht, terwijl het dat stiekem wel is. Hoe preciezer de data die jij krijgt (in groepen van 20 procent, in groepen van 1 procent, of zelfs met een decimaal achter de komma.) hoe waarschijnlijker het wordt dat je een significant resultaat vindt, als er daadwerkelijk een verschil is tussen de groepen.

Stel bijvoorbeeld, dat bij de bedrijven uit de "ja" categorie, gemiddeld 10 procent van de klanten terugkomt en uit de "nee" categorie 5 procent van de klanten terugkomt. In de huidige situatie merk je dan geen verschil, omdat van 0-20 procent 1 groep is, terwijl het in realiteit een verdubbeling is van het aantal terugkerende klanten. :)
Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?

[ Bericht 0% gewijzigd door stefanschippers op 03-02-2014 22:08:22 ]
pi_136349432
quote:
0s.gif Op maandag 3 februari 2014 21:34 schreef stefanschippers het volgende:

[..]

Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?
De counts bij een correcte chi-square test moeten minimaal 5 zijn!
  donderdag 6 februari 2014 @ 16:28:09 #263
165047 eleganza
ik hou van koekjes.
pi_136405237
Dacht dat ik hier niet meer terug hoefde te komen, helaas voor mijn laatste ... ALLERLAATSTE analyse nog wel.

Ik wil een crosstab maken met 2 variabelen, waar eentje al vast staat. De andere moet ik berekenen aan de hand van of cases boven/gelijk of onder het gemiddelde zitten. Het wordt dus een 0 (onder het gemiddelde) of 1(gelijk of hoger dan gemiddelde) waarde. Heb nu het volgende gedaan: Compute variable (nieuwe variabele) = oude variabele >= (gemiddelde oude variabele)

Krijg er dan wel uit wat ik wil? Ik heb .00 en 1.00's gekregen, en het lijkt te werken. Is mijn logica hier logisch? Ik volg mezelf namelijk ook niet altijd *O* :@ 8)7
Koekje d'r bij?
pi_136405700
quote:
0s.gif Op donderdag 6 februari 2014 16:28 schreef eleganza het volgende:
Dacht dat ik hier niet meer terug hoefde te komen, helaas voor mijn laatste ... ALLERLAATSTE analyse nog wel.

Ik wil een crosstab maken met 2 variabelen, waar eentje al vast staat. De andere moet ik berekenen aan de hand van of cases boven/gelijk of onder het gemiddelde zitten. Het wordt dus een 0 (onder het gemiddelde) of 1(gelijk of hoger dan gemiddelde) waarde. Heb nu het volgende gedaan: Compute variable (nieuwe variabele) = oude variabele >= (gemiddelde oude variabele)

Krijg er dan wel uit wat ik wil? Ik heb .00 en 1.00's gekregen, en het lijkt te werken. Is mijn logica hier logisch? Ik volg mezelf namelijk ook niet altijd *O* :@ 8)7
Ik neem aan dat je met 'If' hebt gewerkt? Dan zal het wel kloppen ja. :Y
pi_136405757
quote:
0s.gif Op maandag 3 februari 2014 21:34 schreef stefanschippers het volgende:

[..]

Intussen (verrassend snel) gelukt. Helaas zelfde probleem, de expected count blijft te laag bij de 'hogere procenten'-categorieën. Overal waar ik de 'opnieuw kopen'-variabel tegen af zet, krijg ik dit probleem.

http://s29.postimg.org/nr57jrntz/expected_count.jpg

Ook hercoderen door 0-10 en 11-20% etc. samen te voegen hielp niet. Betekent dit gewoon dat er echt geen verband is? :'( Dat lijkt me enorm vreemd, aangezien ik hem tegen wel 10 andere variabelen heb afgezet. Of is er nog iets mogelijk?
Waarom codeer je naar 0-20% etc? Als je gewoon de absolute percentages hebt (bedrijf A 7%, bedrijf B 43% etc) dan hoef je niet met die chi-squares te klooien en kun je met gemiddeldes, standaarddeviaties en t-toetsen werken. :)

EDIT: En ja, soms is er gewoon ECHT geen verband, zelfs al zou het logisch lijken. ;)
  donderdag 6 februari 2014 @ 17:44:42 #266
165047 eleganza
ik hou van koekjes.
pi_136407791
quote:
0s.gif Op donderdag 6 februari 2014 16:40 schreef Operc het volgende:

[..]

Ik neem aan dat je met 'If' hebt gewerkt? Dan zal het wel kloppen ja. :Y
Niet met if gewerkt, omdat alle cases voor die variabele meetellen voor de berekening en ik die variabelen die er niet aan voldoen niet 'weggooien'. Ik wil voor de attitude de hoogste 50% scheiden van de laatste 50%, gescheiden door het gemiddelde. Gemiddelde berekend voor de attitude (5.25 van 7 max) dus dit gedaan:

Nieuwe var= attitude variabele >= 5.25
Volgens mij is alles nu 1 wat boven of gelijk is aan die 5.25, en alles dat daar niet aan voldoet 0.

Toch? 8)7
Koekje d'r bij?
pi_136409209
quote:
0s.gif Op donderdag 6 februari 2014 17:44 schreef eleganza het volgende:

[..]

Niet met if gewerkt, omdat alle cases voor die variabele meetellen voor de berekening en ik die variabelen die er niet aan voldoen niet 'weggooien'. Ik wil voor de attitude de hoogste 50% scheiden van de laatste 50%, gescheiden door het gemiddelde. Gemiddelde berekend voor de attitude (5.25 van 7 max) dus dit gedaan:

Nieuwe var= attitude variabele >= 5.25
Volgens mij is alles nu 1 wat boven of gelijk is aan die 5.25, en alles dat daar niet aan voldoet 0.

Toch? 8)7
Ohja, dat zal hij automatisch wel regelen dan. Ik zat te denken aan 'recode into different variable' en dan:
if attitude >=5.25 Nieuwe variabele = 1
if attitude <5.25 Nieuwe variabele = 0
Maar jouw methode werkt ook volgens mij. :)

EDIT: Aangezien ik gok dat je een helemaal niet mee eens - helemaal mee eens 7-puntsschaal hebt gebruikt is het effectief 1-5 en 6-7 natuurlijk. :)
  donderdag 6 februari 2014 @ 22:33:03 #268
165047 eleganza
ik hou van koekjes.
pi_136421616
quote:
0s.gif Op donderdag 6 februari 2014 18:31 schreef Operc het volgende:

[..]

Ohja, dat zal hij automatisch wel regelen dan. Ik zat te denken aan 'recode into different variable' en dan:
if attitude >=5.25 Nieuwe variabele = 1
if attitude <5.25 Nieuwe variabele = 0
Maar jouw methode werkt ook volgens mij. :)

EDIT: Aangezien ik gok dat je een helemaal niet mee eens - helemaal mee eens 7-puntsschaal hebt gebruikt is het effectief 1-5 en 6-7 natuurlijk. :)
Attitude is al een opschaling van vijf vragen uit mijn onderzoek, dus zijn het vaak x.xx waarden, waar ze niet helemaal rond zijn omdat het al een gemiddelde is. Die 5.25 is de mediaan van de metingen en ik kijk of de mensen op of boven de mediaan vaker bepaald gedrag vertonen (X/4 functies gebruiken - verwachting is positiever -dus boven mediaan- dat mensen meer van de vier functies gebruiken). Kan ik significant helaas niks over zeggen omdat de verdeling scheef is en de chi-square niet werkt omdat er dus niet vijf respondenten per hokje zijn (als je begrijpt wat ik bedoel :') )

EDIT: Ik zit dat ik niet duidelijk had gemaakt dat ik de kwartielen had berekend en daar t tweede kwartiel van gepakt had.

[ Bericht 3% gewijzigd door eleganza op 06-02-2014 22:47:40 ]
Koekje d'r bij?
pi_136424394
quote:
0s.gif Op donderdag 6 februari 2014 22:33 schreef eleganza het volgende:

[..]

Attitude is al een opschaling van vijf vragen uit mijn onderzoek, dus zijn het vaak x.xx waarden, waar ze niet helemaal rond zijn omdat het al een gemiddelde is. Die 5.25 is de mediaan van de metingen en ik kijk of de mensen op of boven de mediaan vaker bepaald gedrag vertonen (X/4 functies gebruiken - verwachting is positiever -dus boven mediaan- dat mensen meer van de vier functies gebruiken). Kan ik significant helaas niks over zeggen omdat de verdeling scheef is en de chi-square niet werkt omdat er dus niet vijf respondenten per hokje zijn (als je begrijpt wat ik bedoel :') )

EDIT: Ik zit dat ik niet duidelijk had gemaakt dat ik de kwartielen had berekend en daar t tweede kwartiel van gepakt had.
Je chi-square probleem zie ik nog even niet. Hoe groot zijn je groepen <5.25 en >=5.25 en de groepen X = 1/2/3/4?
  vrijdag 7 februari 2014 @ 12:41:50 #270
165047 eleganza
ik hou van koekjes.
pi_136434370
quote:
1s.gif Op donderdag 6 februari 2014 23:31 schreef Operc het volgende:

[..]

Je chi-square probleem zie ik nog even niet. Hoe groot zijn je groepen <5.25 en >=5.25 en de groepen X = 1/2/3/4?
Groepen zijn ongeveer even groot volgens mij, bij attitude is het 41/43, maar all in valt 80% in de 4/4 groep.

FB_NRFUNCT * BI_ATTITUDE Crosstabulation
Count
BI_ATTITUDE Total

funct | laag | hoog
1.00 1 0 1
2.00 2 5 7
3.00 8 7 15
4.00 30 31 61
Total 41 43 84

4 van de 8 cellen hebben een waarde lager dan vijf door die scheve verdeling.

Hij geeft mij nu dit bij chisquare

Chi-Square Tests
Value df Asymp. Sig. (2-sided)
Pearson Chi-Square 2.322a 3 .508
Likelihood Ratio 2.750 3 .432
Linear-by-Linear Association .038 1 .845
N of Valid Cases 84
a 4 cells (50.0%) have expected count less than 5. The minimum expected count is .49. (.45, .45, .15 en .13 voor andere variabelen)

Dat laatste betekent toch dat ik er niks mee kan?

Bij andere vier variabelen in dezelfde crosstab heb ik ook geen significante resultaten, maar ik mag daar ivm die expected count toch niks over zeggen?
Koekje d'r bij?
pi_136435713
quote:
0s.gif Op vrijdag 7 februari 2014 12:41 schreef eleganza het volgende:

[..]

Groepen zijn ongeveer even groot volgens mij, bij attitude is het 41/43, maar all in valt 80% in de 4/4 groep.

FB_NRFUNCT * BI_ATTITUDE Crosstabulation
Count
BI_ATTITUDE Total

funct | laag | hoog
1.00 1 0 1
2.00 2 5 7
3.00 8 7 15
4.00 30 31 61
Total 41 43 84

4 van de 8 cellen hebben een waarde lager dan vijf door die scheve verdeling.

Hij geeft mij nu dit bij chisquare

Chi-Square Tests
Value df Asymp. Sig. (2-sided)
Pearson Chi-Square 2.322a 3 .508
Likelihood Ratio 2.750 3 .432
Linear-by-Linear Association .038 1 .845
N of Valid Cases 84
a 4 cells (50.0%) have expected count less than 5. The minimum expected count is .49. (.45, .45, .15 en .13 voor andere variabelen)

Dat laatste betekent toch dat ik er niks mee kan?

Bij andere vier variabelen in dezelfde crosstab heb ik ook geen significante resultaten, maar ik mag daar ivm die expected count toch niks over zeggen?
In principe moet je analyse strategie vaststaan voor je de data verzamelt, omdat het anders goochelen wordt in plaats van echt statistiek toepassen. Ik verwacht echter dat als je in je scriptie (?) schrijft dat je niets gevonden hebt en daarom nog een beetje bent gaan klooien, dat ze die onderzoekende houding misschien wel kunnen waarderen. (Zolang je er maar bij zegt dat je van te voren iets anders had bedacht.)

Als je kijkt naar de scores in de groepen, dan zie je dat er eigenlijk tussen laag en hoog weinig verschil zit (verschillen van -1, 3, -1, 1). Het is dus niet zo waarschijnlijk dat daar significante resultaten uit zullen komen, even afgezien van de minimale groepsgroottes. Dat kan deels komen door een plafondeffect. Je ziet dat het grootste deel van de deelnemers (61 van de 84) de maximale score heeft bereikt. Een mogelijke invloed van attitude om de score te verhogen in een van de twee groepen is daardoor dus vrijwel onmogelijk. Misschien had je een grotere spreiding gevonden als je maximale score 10 of hoger was geweest, maar dat weet je niet.

Wat je nog zou kunnen proberen, is score 1 en 2 eruit laten, wegens te weinig proefpersonen en in plaats van een mediaan als ijkpunt voor wat hoog en wat laag is, het eerste en derde kwartiel pakken. Je gooit dan een deel van je data weg, maar je kunt dat eventueel beredeneren door te stellen dat een score van 5.24 nu niet echt van 5.26 afwijkt, terwijl je volgens de eerste methode deze twee wel als totaal anders ziet (laag en hoog). Als je zoiets doet zou ik wel eerst een analyse met alle data draaien en in je scriptie opnemen, voordat je aan dergelijke subgroepen begint. Een heldere omschrijving van en redenatie waarom je bepaalde statistische keuzes maakt is heel belangrijk voor lezers van een artikel. :)
  vrijdag 7 februari 2014 @ 13:52:53 #272
165047 eleganza
ik hou van koekjes.
pi_136436681
quote:
0s.gif Op vrijdag 7 februari 2014 13:26 schreef Operc het volgende:

[..]

In principe moet je analyse strategie vaststaan voor je de data verzamelt, omdat het anders goochelen wordt in plaats van echt statistiek toepassen. Ik verwacht echter dat als je in je scriptie (?) schrijft dat je niets gevonden hebt en daarom nog een beetje bent gaan klooien, dat ze die onderzoekende houding misschien wel kunnen waarderen. (Zolang je er maar bij zegt dat je van te voren iets anders had bedacht.)

Als je kijkt naar de scores in de groepen, dan zie je dat er eigenlijk tussen laag en hoog weinig verschil zit (verschillen van -1, 3, -1, 1). Het is dus niet zo waarschijnlijk dat daar significante resultaten uit zullen komen, even afgezien van de minimale groepsgroottes. Dat kan deels komen door een plafondeffect. Je ziet dat het grootste deel van de deelnemers (61 van de 84) de maximale score heeft bereikt. Een mogelijke invloed van attitude om de score te verhogen in een van de twee groepen is daardoor dus vrijwel onmogelijk. Misschien had je een grotere spreiding gevonden als je maximale score 10 of hoger was geweest, maar dat weet je niet.

Wat je nog zou kunnen proberen, is score 1 en 2 eruit laten, wegens te weinig proefpersonen en in plaats van een mediaan als ijkpunt voor wat hoog en wat laag is, het eerste en derde kwartiel pakken. Je gooit dan een deel van je data weg, maar je kunt dat eventueel beredeneren door te stellen dat een score van 5.24 nu niet echt van 5.26 afwijkt, terwijl je volgens de eerste methode deze twee wel als totaal anders ziet (laag en hoog). Als je zoiets doet zou ik wel eerst een analyse met alle data draaien en in je scriptie opnemen, voordat je aan dergelijke subgroepen begint. Een heldere omschrijving van en redenatie waarom je bepaalde statistische keuzes maakt is heel belangrijk voor lezers van een artikel. :)
Nja, dit was een aanvulling van mijn docente die eigenlijk antwoord geeft op mijn hoofdvraag (in welke mate hebben variabele a,b,c,d,e invloed op het aantal functies dat er gebruikt wordt (zijn er 4 onderzocht, dus max aantal is 4)?). Mijn logica in mijn scriptie is sowieso ver te zoeken, ben alles door elkaar heen gaan doen, want zo werk ik ook. Plus, mijn lack of insight in statistics heeft hier wel de overhand. Ik heb allerlei leuke ideeën maar dan daar de passende analyse bij bedenken is een tweede. 8)7 (so much for inzicht in statistiek als masterstudent)

Wat ik hier eigenlijk van wil weten is gebruiken mensen met een hogere attitude (hoger dan de mediaan in mijn geval) nou meer functies dan mensen met een lagere attitude dan de mediaan? Dat heb ik als het goed is berekend met die eerste crosstabs (1,2,3,4 waren het aantal functies), maar is dan die chisquare 'valide' genoeg om te zeggen dat het niet significant is? Doet me verder niks dat het niet significant is, is ook een resultaat *O* - maar het moet wel valide zijn als ik dat wil aanvoeren als argument! :+
Koekje d'r bij?
pi_136436785
quote:
0s.gif Op vrijdag 7 februari 2014 13:52 schreef eleganza het volgende:

[..]

Nja, dit was een aanvulling van mijn docente die eigenlijk antwoord geeft op mijn hoofdvraag (in welke mate hebben variabele a,b,c,d,e invloed op het aantal functies dat er gebruikt wordt (zijn er 4 onderzocht, dus max aantal is 4)?). Mijn logica in mijn scriptie is sowieso ver te zoeken, ben alles door elkaar heen gaan doen, want zo werk ik ook. Plus, mijn lack of insight in statistics heeft hier wel de overhand. Ik heb allerlei leuke ideeën maar dan daar de passende analyse bij bedenken is een tweede. 8)7 (so much for inzicht in statistiek als masterstudent)

Wat ik hier eigenlijk van wil weten is gebruiken mensen met een hogere attitude (hoger dan de mediaan in mijn geval) nou meer functies dan mensen met een lagere attitude dan de mediaan? Dat heb ik als het goed is berekend met die eerste crosstabs (1,2,3,4 waren het aantal functies), maar is dan die chisquare 'valide' genoeg om te zeggen dat het niet significant is? Doet me verder niks dat het niet significant is, is ook een resultaat *O* - maar het moet wel valide zijn als ik dat wil aanvoeren als argument! :+
Je kunt niet heel veel anders volgens mij, dus zou die conclusie inderdaad trekken. Wel even opletten dat niet significant niet betekent dat er zeker geen invloed is, enkel dat je die niet hebt gemeten. ;)
  vrijdag 7 februari 2014 @ 14:20:19 #274
165047 eleganza
ik hou van koekjes.
pi_136437609
quote:
0s.gif Op vrijdag 7 februari 2014 13:55 schreef Operc het volgende:

[..]

Je kunt niet heel veel anders volgens mij, dus zou die conclusie inderdaad trekken. Wel even opletten dat niet significant niet betekent dat er zeker geen invloed is, enkel dat je die niet hebt gemeten. ;)
Uiteraard, uiteraard :+ Over het algemeen is er wel een positievere wending, dus hoe positiever men op een variabele scoort, des te meer functies respondenten gebruiken, maar het is dus niet significant *)

* eleganza heeft net antwoord gegeven op haar onderzoeksvraag uit haar scriptie *O*
Koekje d'r bij?
pi_136438783
quote:
0s.gif Op vrijdag 7 februari 2014 14:20 schreef eleganza het volgende:

[..]

Uiteraard, uiteraard :+ Over het algemeen is er wel een positievere wending, dus hoe positiever men op een variabele scoort, des te meer functies respondenten gebruiken, maar het is dus niet significant *)

* eleganza heeft net antwoord gegeven op haar onderzoeksvraag uit haar scriptie *O*
Gefeliciteerd! ^O^
pi_136703455
Ik ben momenteel een syntax aan het schrijven voor een reeks onderzoek die eraan gaan komen.

Nou wil ik een standaard syntax schrijven die een categorial variable omzet naar een dummy.
Voorbeeld:

Van variabele 'locatie' zijn duizend mogelijkheden van 1 t/m 1000.
In onderzoek A worden locaties 100, 200 en 300 aangevinkt.

Voor de variabele 'locatie' wil ik dan voor locatie 100, 200 en 300 een dummy gemaakt wordt.
Er komen dan dus drie nieuwe variabelen bij.

Is dit op één of andere manier mogelijk geautomatiseerd doen?
pi_136704357
quote:
0s.gif Op vrijdag 14 februari 2014 14:40 schreef Droplollie het volgende:
Ik ben momenteel een syntax aan het schrijven voor een reeks onderzoek die eraan gaan komen.

Nou wil ik een standaard syntax schrijven die een categorial variable omzet naar een dummy.
Voorbeeld:

Van variabele 'locatie' zijn duizend mogelijkheden van 1 t/m 1000.
In onderzoek A worden locaties 100, 200 en 300 aangevinkt.

Voor de variabele 'locatie' wil ik dan voor locatie 100, 200 en 300 een dummy gemaakt wordt.
Er komen dan dus drie nieuwe variabelen bij.

Is dit op één of andere manier mogelijk geautomatiseerd doen?
Als het niet ingewikkelder wordt dan dit:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Do IF locatie=100.
   compute locatie100 = 1.
   compute locatie200 = 0.
   compute locatie300 = 0.
Else if locatie=200.
   compute locatie100 = 0.
   compute locatie200 = 1.
   compute locatie300 = 0.
Else if locatie = 300.
   compute locatie100 = 0.
   compute locatie200 = 0.
   compute locatie300 = 1.
Else.
   compute locatie100 = 0.
   compute locatie200 = 0.
   compute locatie300 = 0.
End if.
Execute.

Maar volgens mij zijn er ook wel mooiere macro's voor creëren van dummies te vinden.

[ Bericht 0% gewijzigd door dotKoen op 14-02-2014 15:19:06 ]
pi_136707252
quote:
0s.gif Op vrijdag 14 februari 2014 15:04 schreef dotKoen het volgende:

[..]

Als het niet ingewikkelder wordt dan dit:
[ code verwijderd ]

Maar volgens mij zijn er ook wel mooiere macro's voor creëren van dummies te vinden.
Die syntax ken ik, maar ik wil dan dus van alle mogelijke locaties (1 - 10.000) een dummy hebben.
Dus mogelijk zit er locatie 101 tussen. Dan wordt het met jouw voorbeeld niet als dummy gepakt.
pi_136707437
quote:
0s.gif Op vrijdag 14 februari 2014 16:32 schreef Droplollie het volgende:

[..]

Die syntax ken ik, maar ik wil dan dus van alle mogelijke locaties (1 - 10.000) een dummy hebben.
Dus mogelijk zit er locatie 101 tussen. Dan wordt het met jouw voorbeeld niet als dummy gepakt.
Dat moet je dus met een macro doen. Zoiets als http://www.glennlthompson.com/?p=92.
pi_136884265
Hoe maak ik een univariaat databestand multivariaat? Ik heb dit al eens gedaan (met syntax) maar ben het vergeten :') Google geeft me niet wat ik moet hebben (of ik gebruik de verkeerde termen)
Oftewel:
1
2
3
4
5
6
naam1 geslacht score 1
naam1 geslacht score 2
naam1 geslacht score 3
naam2 geslacht score 1
naam2 geslacht score 2
naam2 geslacht score 3
moet worden
1
2
naam1 geslacht score 1 score 2 score 3
naam2 geslacht score 1 score 2 score 3
Edgar Davids over Danny Buijs na Ajax-Feyenoord (4-1, 4/2/07): Luister eens, het is niet de eerste keer dat jongetjes zich willen bewijzen en zeker ook niet de laatste keer.
pi_136884661
Met 'restructure'. Is een SPSS functie (ergens in een menu te vinden).
Aldus.
pi_136892872
quote:
2s.gif Op woensdag 19 februari 2014 10:53 schreef Z het volgende:
Met 'restructure'. Is een SPSS functie (ergens in een menu te vinden).
_O_
Edgar Davids over Danny Buijs na Ajax-Feyenoord (4-1, 4/2/07): Luister eens, het is niet de eerste keer dat jongetjes zich willen bewijzen en zeker ook niet de laatste keer.
pi_137197620
Vraagje: Ik ben nu bezig met multipele lineaire regressie en heb voor mijn analyses een aantal log transformaties gedaan, zodat ze wat normaler verdeeld zijn. Van deze loggetransformeerde variabele heb ik een z-score berekend, zodat ze gestandaardiseerd zijn.

Wordt mijn estimate bij mijn ouput dan nu ook een beta i.p.v een b?
Of moet ik hiervoor van ALLE variabele een z-score berekenen en hiermee de analyses uitvoeren?
pi_137211609
quote:
0s.gif Op donderdag 27 februari 2014 13:54 schreef Krizzyboy89 het volgende:
Vraagje: Ik ben nu bezig met multipele lineaire regressie en heb voor mijn analyses een aantal log transformaties gedaan, zodat ze wat normaler verdeeld zijn.
Is dat uberhaupt nodig? een hardnekkig misverstand is dat data normaal verdeeld moeten zijn voor parametrische testen, maar dat is helemaal niet de assumptie, deze is slechts dat de means normaal verdeeld zijn.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137888578
Oké, ik heb een hele stomme vraag.
Ik wil een gemiddelde score berekenen waarbij missings niet worden meegenomen, maar de overige waarden van de ppn wel.

Nu had ik (in syntax) gedaan:
compute bladibla = mean(x, y, z).
Missing values staat ingevuld in variable view.

Wat schetst mijn verbazing? SPSS rekent missing values gewoon als waarde mee. Aangezien ik een grote waarde voor missing had, heb ik nu dus ook idioot grote schaalgemiddelden. Hoe kan ik dit oplossen en een normaal schaalgemiddelde berekenen?

Edit: laat maar. Ik heb het antwoord al. Bij omscoren had één item geen missing value.

[ Bericht 8% gewijzigd door babybanaan op 18-03-2014 16:39:01 ]
  dinsdag 18 maart 2014 @ 17:49:17 #286
219590 oompaloompa
doompadeedee
pi_137891665
Ik begrijp niet waarom mensen uberhaupt nummers invoeren bij missing values (alhoewel wij het ook aanleerden met "999") waarom zou je die cellen niet gewoon leeg laten?

Of heb ik al die jaren een superhandige functie gemist ergens? :D
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137892006
Geen idee. Ik deed het ook nooit, maar ik moet het tegenwoordig doen. Dit soort dingen haal je er wel mee uit. Maar als ik die missing values nooit had ingevuld, dan had ik het probleem nooit gehad. Dus; geen idee.
pi_137892013
quote:
0s.gif Op dinsdag 18 maart 2014 17:49 schreef oompaloompa het volgende:
Ik begrijp niet waarom mensen uberhaupt nummers invoeren bij missing values (alhoewel wij het ook aanleerden met "999") waarom zou je die cellen niet gewoon leeg laten?

Of heb ik al die jaren een superhandige functie gemist ergens? :D
Het heeft te maken met het soort missing value dat je hebt. Niets invullen is een system missing en wel iets invullen maar het aanstippen als missing is een andere missing.
De link hieronder legt er wat over uit, met het volgende voorbeeld over het verschil tussen die twee bij het analyseren:
quote:
There is no way to get a system missing value to appear in a crosstabs table. The closest you will come is to change the system-missing value to a user-missing value. This can be accomplished with a recode command, as is shown below. The keyword sysmis can be used on the recode command, and it stands for the system-missing value.
http://www.ats.ucla.edu/stat/spss/modules/missing.htm
  dinsdag 18 maart 2014 @ 18:05:43 #289
219590 oompaloompa
doompadeedee
pi_137892178
quote:
0s.gif Op dinsdag 18 maart 2014 17:59 schreef Operc het volgende:

[..]

Het heeft te maken met het soort missing value dat je hebt. Niets invullen is een system missing en wel iets invullen maar het aanstippen als missing is een andere missing.
De link hieronder legt er wat over uit, met het volgende voorbeeld over het verschil tussen die twee bij het analyseren:

[..]

http://www.ats.ucla.edu/stat/spss/modules/missing.htm
dank!
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_137892200
quote:
0s.gif Op dinsdag 18 maart 2014 18:05 schreef oompaloompa het volgende:

[..]

dank!
Graag gedaan. :)
(ik moest het zelf ook even opzoeken, want ik wist niet precies meer hoe het zat.)
pi_138113735
Niet zozeer een inhoudelijke vraag, meer een technische maar wellicht dat iemand er ervaring mee heeft. Tijdens het analyseren van mijn data maak ik af en toe een crosstab, dit resulteert erin dat SPSS compleet de pan uit flipt met dit als resultaat:



Zoals je kan zien staat de crosstab werkelijk waar all over the place, eigenlijk volgt alles mijn muis een beetje, zo gauw ik naar data view of variable view ga verschuift daar alles ook met de muis mee :S

EDIT: hij doet het nu meteen na het openen van het programma zonder ook maar een actie te hebben ondernomen...
  maandag 24 maart 2014 @ 14:52:04 #292
219590 oompaloompa
doompadeedee
pi_138114712
quote:
0s.gif Op maandag 24 maart 2014 14:25 schreef Thrills het volgende:
Niet zozeer een inhoudelijke vraag, meer een technische maar wellicht dat iemand er ervaring mee heeft. Tijdens het analyseren van mijn data maak ik af en toe een crosstab, dit resulteert erin dat SPSS compleet de pan uit flipt met dit als resultaat:

[ afbeelding ]

Zoals je kan zien staat de crosstab werkelijk waar all over the place, eigenlijk volgt alles mijn muis een beetje, zo gauw ik naar data view of variable view ga verschuift daar alles ook met de muis mee :S

EDIT: hij doet het nu meteen na het openen van het programma zonder ook maar een actie te hebben ondernomen...
Geen oplossing, misschien wel omweg trucje maar waarom doe je een crosstab? Zolang je geen chi-squares oid nodig hebt is het misschien gemakkelijker split file en frequencies te gebruiken?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!Fotograaf woensdag 26 maart 2014 @ 21:57:32 #293
145146 Andyy
pi_138208558
Hoe heet een design met alleen drie condities (intern, extern en controle) zonder verdere variabele?
pi_138213542
quote:
6s.gif Op woensdag 26 maart 2014 21:57 schreef Andyy het volgende:
Hoe heet een design met alleen drie condities (intern, extern en controle) zonder verdere variabele?
Neem aan dat je ook een afhankelijke variabele hebt, anders is het een beetje een flutdesign :D
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!Fotograaf donderdag 27 maart 2014 @ 00:14:57 #295
145146 Andyy
pi_138214368
Reactietijd en wel of geen hulp.
1 blok geleden statistiek afgesloten, nu al deze shit vergeten :')
3x2 mixed design dus, thanks :@
pi_138216661
quote:
6s.gif Op donderdag 27 maart 2014 00:14 schreef Andyy het volgende:
Reactietijd en wel of geen hulp.
1 blok geleden statistiek afgesloten, nu al deze shit vergeten :')
3x2 mixed design dus, thanks :@
Als wel of geen hulp bij dezelfde proefpersoon gevarieerd is, is het idd een mixed design.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  FOK!Fotograaf donderdag 27 maart 2014 @ 11:10:19 #297
145146 Andyy
pi_138220677
quote:
0s.gif Op donderdag 27 maart 2014 06:54 schreef oompaloompa het volgende:

[..]

Als wel of geen hulp bij dezelfde proefpersoon gevarieerd is, is het idd een mixed design.
Kut, ze staan allemaal los van elkaar, between subjects design dus
Je brengt het naar boven zonder het te zeggen :D
pi_138229608
quote:
6s.gif Op donderdag 27 maart 2014 11:10 schreef Andyy het volgende:

[..]

Kut, ze staan allemaal los van elkaar, between subjects design dus
Je brengt het naar boven zonder het te zeggen :D
:) :)
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138537181
Stel een groep participanten vertonen bepaald gedrag. Vervolgens neem je een screeningsinstrument bij ze af om dit gedrag in beeld te brengen en deze patiënten hulp aan te bieden. Na een jaar ga je checken hoe het gaat en of de situatie verbeterd is. Wat soort onderzoek is dit? (dit vergelijk je eventueel met een controle groep) hoe kun je dit het beste meten, dus welke methode voor SPSS?
  zaterdag 5 april 2014 @ 14:25:08 #300
219590 oompaloompa
doompadeedee
pi_138537922
quote:
0s.gif Op zaterdag 5 april 2014 13:49 schreef puspuistje het volgende:
Stel een groep participanten vertonen bepaald gedrag. Vervolgens neem je een screeningsinstrument bij ze af om dit gedrag in beeld te brengen en deze patiënten hulp aan te bieden. Na een jaar ga je checken hoe het gaat en of de situatie verbeterd is. Wat soort onderzoek is dit? (dit vergelijk je eventueel met een controle groep) hoe kun je dit het beste meten, dus welke methode voor SPSS?
repeated measures / within participants / multilevel

het gemakkelijkste gebriuk je een mancova voor analyse.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138538139
quote:
0s.gif Op zaterdag 5 april 2014 14:25 schreef oompaloompa het volgende:

[..]

repeated measures / within participants / multilevel

het gemakkelijkste gebriuk je een mancova voor analyse.
Thnx! is dit een cohort studie?
abonnement Unibet Coolblue Bitvavo
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')