Aha! Ik snap hetquote:Op maandag 9 juli 2012 23:44 schreef oompaloompa het volgende:
Probleem ontdekt en omdat andere mensen hier misschien ook tegenaan kunnen lopen post ik het hier maar.
Als je een multivariate / manova doet, vallen in principe cases met 1 of meer missing values gewoon af. Omdat je dataset zo veel missings heeft, houdt je uiteindelijk minder dan de helft over. Wat nog cru-er is, is dat van 1 conditie je helemaal niemand meer overhoudt. Daarom kun je geen contrasten meer doen.
Nu zijn er 2 opties:
1 je imputeert de missings.
2 je doet allemaal losse univariates
Met allemaal losse toetsen vergroot je de kans op een type 1 fout. En ik zou het inderdaad wel vermelden.quote:Op maandag 9 juli 2012 23:47 schreef automatic_ het volgende:
[..]
Aha! Ik snap het
En die losse univariates had ik al gedaan. Nog één vraagje erover. Maakt dat dan veel uit dat ik nu univariates doe? En moet / kan ik dat dan gewoon verantwoorden in mijn discussie of hoeft dat allemaal niet?
Oh God, dat hebben we ook nog jaquote:Op maandag 9 juli 2012 23:51 schreef Sandertje23 het volgende:
[..]
Met allemaal losse toetsen vergroot je de kans op een type 1 fout. En ik zou het inderdaad wel vermelden.
Ah ok, fijn dat je je tabel toegevoegd hebt.quote:Op maandag 9 juli 2012 23:44 schreef VacaLoca het volgende:
[..]
Thanks, stukje 'meand +/- 1.96*sd omvat 0' is helaas nog even onbekende taal voor mij. Ik heb met studie geen statistiek gehad, en probeer nu zelf snel te leren zo goed en zo kwaad als het kan. Heb even uitdraai gemaakt.
[ afbeelding ]
Nu had ik daarover al wel gelezen in SPSS Survival Guide:
While there are tests that you can use to evaluate skewness and kurtosis values, these are too sensitive with large samples. Tabachnick and Fidell (2007, p. 81) recommend inspecting the shape of the distribution (e.g. using a histogram).
Nu zien zij 200+ als een large sample las ik elders in het boek... terwijl ik n=126 heb
Verderop in het boek adviseren ze iig een Normal Q-Q plot als alternatief.
[..]
Maar wanneer zouden mensen ervaren met statistiek het nog 'reasonable' noemen is dan mijn vraag betreffende bv de Q-Q plot die ik liet zien.
Iemand anders een goede website voor basis tot gemiddeld niveau analyses voor surveys? Werken met likert schalen, multiple choise etc. Ik heb alle data-invoer goed zover ik weet, maar niet overzichtelijk wélke analyses het meest relevant zijn voor een dergelijke enquete. Heb helaas zeer beperkt de tijd me goed in te lezen.
Ja gewoon in je discussie zeggen; vanwege missing values niet mogelijk multivariate te doen dus daarom 4 univariates. Zolang je eerlijk rapporteert is er geen probleem. Als je hypothese per los construct had is er ook geen type-1 probleem, als je alleen overall effect voorspeld had en op ene wel vindt en op andere niet, heb je wel een probleem qua zowel type 1 als type 2 :pquote:Op maandag 9 juli 2012 23:47 schreef automatic_ het volgende:
[..]
Aha! Ik snap het
En die losse univariates had ik al gedaan. Nog één vraagje erover. Maakt dat dan veel uit dat ik nu univariates doe? En moet / kan ik dat dan gewoon verantwoorden in mijn discussie of hoeft dat allemaal niet?
Thank you very much Het is voor HBO, dus ze zijn wat makkelijker impressed denk ik; dus met dat in achterhoofd zou ik denk ik goed voor optie 1 kunnen gaan en kort uitleggen dat de betrouwbaarheid iets lager ligt omdat de normality niet helemaal voldoet aan de eisen, toch?quote:Op maandag 9 juli 2012 23:53 schreef oompaloompa het volgende:
[..]
Ah ok, fijn dat je je tabel toegevoegd hebt.
Met skewness en kurtosis kun je een beetje fdoen zoals je ook normale andere toetsen doet.
Als ik kijk naar je skewness (even verzonnen, pas zo de nummers aan) dan zie je dat het gemiddelde .500 is (of zo). Dat betekent dat je gemiddelde .5 afligt van de 0 waar het zou moeten zijn als je geen skewness hebt ("scheve normaalverdeling"). Is dat significant anders? Darvoor gebruik je de standaardverdeling van de skewness (laten we zeggen dat die .2 is even) en die doe je keer 1.96. Nu heb je de 95% confidence interval van je 0.5 mean. Als je die erbij optelt & aftrekt heb je dus een confidence interval van 0.1 -- 0.9. Het gemiddelde waar je op hoopt, 0.0, ligt daar niet tussen. Dit betekent dat je significante skewness hebt en je data dus niet normaal verdeeld is.
Hiervoor zijn een aantal oplossingen.
1. negeren en gewoon doorgaan. Je resultaten zijn minder betrouwbaar, maar als je resultaten heel erg sterk zijn maakt dat niet heel erg veel uit.
2. Je data hercoderen waardoor ze normaal verdeeld raken. Bijvoorbeeld door een log0transformatie of er de wortel van te nemen.
3. Een nonparametrische toets er op toepassen. Deze zijn wat conservatiever maar hebben, bij data die in de buurt van een normaalverdeling liggen minder power.
Als handige guide kan ik Pallant aanraden.
[..]
Ja gewoon in je discussie zeggen; vanwege missing values niet mogelijk multivariate te doen dus daarom 4 univariates. Zolang je eerlijk rapporteert is er geen probleem. Als je hypothese per los construct had is er ook geen type-1 probleem, als je alleen overall effect voorspeld had en op ene wel vindt en op andere niet, heb je wel een probleem qua zowel type 1 als type 2 :p
Yeap, als je helemaal een goede indruk wilt maken, interpreteer je nog even op welke wijze dat minder nauwkeurig is. Kan ik je wel mee helpen. In principe komt het er op neer dat je de spreiding aan de ene kant overschat en aan de andere kant onderschat. Afhankelijk van de vergelijking is je toets dus óf te strikt (= goed voor je, zelfs met een te strenge test nog verschil) of een tikkie te zwak (dan moet je uitleggen dat je significantiewaarde waarschijnlijk iets hoger is dan wat spss rapporteert)quote:Op dinsdag 10 juli 2012 00:04 schreef VacaLoca het volgende:
[..]
Thank you very much Het is voor HBO, dus ze zijn wat makkelijker impressed denk ik; dus met dat in achterhoofd zou ik denk ik goed voor optie 1 kunnen gaan en kort uitleggen dat de betrouwbaarheid iets lager ligt omdat de normality niet helemaal voldoet aan de eisen, toch?
Nog één vraag voor ik weer zelf de boeken in zal duiken: wat doen jullie met enquetes met antwoorden ahv een likert schaal. Behandelen jullie het als numerieke data (1 t/m 5) met Scale dus als measurement type, en daar de passende analyses op loslaten. Of als categorische data met Ordinal als measurement type?
(bonusvraag: als je 5-schalige likert hebt maar tevens een 'geen mening/niet van toepassing' optie, kan je het dan nog wel als ordinal behandelen? Want de optie geen mening/nvt ligt dan niet in lijn met de likert data.
Graciasquote:Op dinsdag 10 juli 2012 00:29 schreef oompaloompa het volgende:
Ik zou het gewoon als scale doen, doet iedereen. dan voor bonuspunten nog even slim doen en zeggen "is officieel ordinaal, maar (bron) heeft aangetoond dat ook dan scale toegepast kan worden.
bron kan b.v.http://xa.yimg.com/kq/gro(...)9%25E2%2580%2599.pdf zijn. (dubbelcheck het even, heb alleen net ter plekke abstract bekeken)
Je mag alles doen wat je wilt met getransformeerde variabelen zolang je maar vervolgens bij de interpratie rekening houdt met je transformatie.quote:Op dinsdag 10 juli 2012 01:16 schreef Brembo het volgende:
Even een vraag over transformaties, ik heb een logtransformatie gedaan voor de afhankelijke variabele. Voor toetsen mag dit allemaal zonder problemen, tegen niet getransformeerde variabelen? Maar geldt dit ook voor een ANOVA?
huh? Er van uitgaande dat jij je begeleider goed hebt begrepen heb jij gelijkquote:Op dinsdag 10 juli 2012 14:01 schreef Omnifacer het volgende:
Pfff
Als je een single paired comparison ANOVA moet doen, dan kan dat toch gewoon via general linear model --> univariate en dan optie 'single' bij contrasts? Ik heb data uit 3 surveys die ik moet vergelijken, vandaar. Ik heb alle data in 1 groot bestand, met een nieuwe variabele die bij elke respondent aangeeft uit welke survey hij komt.
Volgens mijn begeleider moet ik met allemaal formules en hercoderingen gaan zitten werken
Heh? Dat klopt gewoon echt niet.quote:Op dinsdag 10 juli 2012 14:20 schreef Omnifacer het volgende:
Thanks voor je antwoord. Dit is de situatie: ik heb drie surveys afgenomen, en wil deze vergelijken op een bepaalde variabele, bijvoorbeeld 'competence'. Wat ik had gedaan: een variabele gemaakt waarin elke respondent getagd wordt uit welke survey hij afkomstig is. Daarmee had ik ANOVA's gemaakt, door gewoon univariate ANOVA te doen. Daar kwam dan een significantie van .182 uit.
Gister zei de begeleider echter: je kunt die drie groepen niet zomaar met elkaar vergelijken vanwege verschil in grootte, je moet een paired comparison ANOVA doen. Nu heb ik me scheel zitten lezen in zo'n kutboek en allemaal zitten kutten met SPSS, maar ik kom niet verder. Dat boek komt met allemaal formules aanzetten (geen idee waar je die zou moeten invoeren), en volgens de tutorials op YouTube kun je gewoon dus doen wat ik omschreef: contrasts --> single selecteren.
Jij ziet er uit als iemand die er meer van weet dan ik: hoe zie jij dat? Als ik het op die laatste manier doe, wordt er dan rekening gehouden met verschil in aantal respondenten?
Je begeleider heeft gelijk m.b.t. je eerste toetsquote:Op dinsdag 10 juli 2012 14:41 schreef Omnifacer het volgende:
Begeleider is een AIO.
In mijn geval heb ik hypothesen die over verschil tussen survey1 en survey 2+3 gaan, en hypothesen die tussen verschil tussen survey 1, 2 en 3 gaan.
Survey 1: n=36
Survey 2: n=40
Survey 3: n=28.
Volgens mijn begeleider kan ik deze dus niet zomaar met elkaar vergelijken omdat n teveel verschilt.
Ik had bij alle hypothesen een ANOVA gedaan en nergens kwam trouwens verschil uit.
Ik snap er zelf dus helemaal geen kut van. Godver wat een gezeik
Tsjah, het slaat ook nergens op. Al die tijd die in die zinloze analyses gaat zitten, terwijl in beginsel al niks significant isquote:Op dinsdag 10 juli 2012 14:47 schreef oompaloompa het volgende:
[..]
Je begeleider heeft gelijk m.b.t. je eerste toets
daarvoor moet je groep 1 op -1 zetten
groep 2 op 40/68 en groep 3 op 28/68
Omdat groep 2 en 3 een andere grootte hebben moet je ze anders wegen. Overigens is het een beetje zinloos planned contrasts te doen als je geen plan had en de anova sowieso al niet sig is, maar dat terzijde.
Was je hier al uitgekomen of heb je nog steeds hulp nodig?quote:Op dinsdag 10 juli 2012 18:16 schreef Omnifacer het volgende:
Mensen, ben ik weer. Ik ben er bijna helemaal uit, ik moet alleen nog een repeated measure ANOVA doen voor twee variabelen. Laat ik ze even var1 en var2 noemen. Ik wil de score van de respondenten uit survey 1 op deze variabelen vergelijken met de score van de respondenten op survey2+3 samen. Var1 en var2 zijn within-subject variabelen, en survey1 en survey2+3 zijn natuurlijk between-variabelen, dus moet ik van mijn begeleider een repeated measure doen. Zoals ik hier al zei: ik heb een grote dataset met alle respondenten erin, en zelf een soort variabele aangemaakt die aangeeft uit welke survey mensen afkomstig zijn.
De hypothese is dat het verschil tussen survey 1 en 2/3 voor var1 groter is dan voor var2.
Hoe moet ik dit nu doen? Als ik snel een repeated measure ANOVA doe dan komen er allemaal dingen uit waarvan ik niet echt snap wat ze betekenen. Ik kan ook geen onderscheid zien tussen survey 1 en 2/3. Is er iemand die me kan helpen?
Nice, hoop dat het allemaal goedgekeurd wordtquote:Op woensdag 11 juli 2012 22:47 schreef Omnifacer het volgende:
Ik denk dat ik eruit ben, ik zal morgen even laten weten wat de begeleider ervan zei... Misschien moet ik het wel opnieuw doen (weet niet zeker of ik het goed heb gedaan), als dat zo is dan geef ik weer even een sein.
Bedankt!
Interpretatie; verschillen op dv worden verklaard door jaar-verschillen.quote:Op donderdag 12 juli 2012 09:45 schreef VreemdeEend het volgende:
Ik heb ook even een vraag over een onderzoek van mij. Ik heb van mijn afhankelijke variabele data verzameld over 10 jaar verspreid. Vervolgens een een regressieanalyse met 7 onafhankelijke variabelen. Uitkomsten hiervan waren prachtig ook al omdat ik wist dat die zaken een sterk effect zouden hebben op mijn afhankelijke variabele. Nu wilt mijn begeleider alleen dat ik ook jaar-dummies gebruik. Als ik dit echter doe is het effect van een jaar enorm op mijn afhankelijke variabele en de effecten van al mijn eerste onafhankelijke variabelen zijn nu nihil.
Hoe moet ik dit precies interpreteren en is het gewoon invoegen van year-dummies de beste manier om te controleren op jaarinvloeden op data?
Ik probeer het aantal fusie's en overnames in Europa over 11 jaar gezien (per maand bekeken) te verklaren door 7 economische indicatoren. Ik heb dus voor 132 maanden het aantal fusies en overnames en daarbij dan die waarden van de indicatoren voor de betreffende periode. Ik begrijp dat 17 IV's echt heel veel is, maar mijn begeleider blijft maar doorzeuren over het controleren op jaarinvloeden. Is er dan nog een andere manier waarop ik iets kan doen met de invloed van het jaar zelf zonder dummies te gebruiken?quote:Op donderdag 12 juli 2012 09:53 schreef oompaloompa het volgende:
[..]
Interpretatie; verschillen op dv worden verklaard door jaar-verschillen.
Dummies is waarschijnlijk niet het beste, het geeft je erg veel degrees of freedom. Is er een reden warom je jaar niet als continue kunt zien? En heb je niet per proefpersoon een meting per jaar?
Overigens is 17 IV's echt enorm veel, hoe groot is je dataset?
Dit is echt totaal niet wat ik normaal doe, dus ik kan het moeilijk beantwoorden. Aangenomen dat jaar geen linear verband heeft kun je het niet als losse variabele meenemen, maar dummies lijkt me ook echt een waardeloze oplossing, moet ik even over nadenken. (ik doe voornamelijk experimenteel onderzoek dus ben minder thuis in correlationeel onderzoek en modelleren, alhoewel ik wel wat relevante statistiek vakken er over heb gehad, maar dat is ondertussen een beetje weggezakt )quote:Op donderdag 12 juli 2012 10:13 schreef VreemdeEend het volgende:
[..]
Ik probeer het aantal fusie's en overnames in Europa over 11 jaar gezien (per maand bekeken) te verklaren door 7 economische indicatoren. Ik heb dus voor 132 maanden het aantal fusies en overnames en daarbij dan die waarden van de indicatoren voor de betreffende periode. Ik begrijp dat 17 IV's echt heel veel is, maar mijn begeleider blijft maar doorzeuren over het controleren op jaarinvloeden. Is er dan nog een andere manier waarop ik iets kan doen met de invloed van het jaar zelf zonder dummies te gebruiken?
Select cases klikken en dan select cases if... Daar kun je aangeven dat alleen cases meedoen die in een bepaald land zijn geweest. Ook kun je met het AND commando alleen de cases selecteren die in beide landen zijn geweest. Bijvoorbeeld: if Spanje = 1 AND Italië = 1. Ik ga er even vanuit dat zo je variabelen heten en dat 1 staat voor "er op vakantie geweest". Dan selecteer je dus alleen cases die in beide landen zijn geweest.quote:Op zaterdag 14 juli 2012 21:05 schreef VacaLoca het volgende:
Lijkt niet uit te maken, wat betreft die missing values...
Nog een vraag over MPR:
Als je bijvoorbeeld de vraag hebt 'In welk(e) land(en) bent u op vakantie geweest in 2011?' en men kan meerdere antwoorden aanvinken.
En frequentietabel van de MPR geeft bijvoorbeeld aan dat 60% van de cases in Spanje is geweest en 40% van de cases in Italië....
.. is het dan vervolgens ook mogelijk om te kijken hoeveel cases er zowel in Spanje als Italië zijn geweest in 2011?
En zoja kan je die dan vervolgens in een variabele stoppen zodat je analyses kan doen over het segment dat in beide landen is geweest?
BVD!
Als het goed is heb je in de output nog een tabel staan met de regressiecoefficienten (betas en B waarden) per predictor.quote:Op donderdag 19 juli 2012 09:21 schreef bart1074 het volgende:
Ook ik heb wat SPSS hulp nodig. Voor mijn scriptie onderzoek voer ik regressies uit in SPSS.
De onafhankelijke variabelen in het model heb ik ingedeeld in vier groepen (fysieke, sociale, locatie en prijs variabelen). Om uiteindelijk statistisch het sterkste model te vinden gebruik ik de zgn. 'enter methode' voor het toevoegen van de variabelen (groepen) aan het model. Het komt er op neer dat ik uiteindelijk vier regressie modellen heb. Het eerste model heeft slechts 1 groep onafhankelijke variabelen in het model, terwijl het vierde model alle vier de groepen in het model meeneemt.
Dit vierde model is dan ook het sterkste. Althans dat heeft de hoogste verklarende waarde (R-square).
Dit is ook uit te lezen in de 'model summary' die hier beneden is afgebeeld. Wat ik graag wil weten is wat de individuele verklarende waarde is per groep in het laatste model. Dus wat is de statistisch verklarende waarde van groep 1, 2, 3 en 4 in model 4. Dus welk percentage van 73,8% (R-square) verklaart elke groep individueel. De model summary geeft deze statistiek alleen cumulatief. Is er in SPSS een manier om dit te vinden? Zo ja, hoe?
[ afbeelding ]
Ja dat klopt en zelfs nog een hele hoop andere output. Maar het is mij niet duidelijk hoe ik die kan gebruiken om hetgeen te vinden waarnaar ik op zoek ben. De verklarende waarde per groep variabelen dus. Kan jij me dat uitleggen?quote:Op donderdag 19 juli 2012 09:25 schreef oompaloompa het volgende:
[..]
Als het goed is heb je in de output nog een tabel staan met de regressiecoefficienten (betas en B waarden) per predictor.
Kun je even de tabel copy pasten van model 4 met de regressiecoefficienten?quote:Op donderdag 19 juli 2012 09:36 schreef bart1074 het volgende:
[..]
Ja dat klopt en zelfs nog een hele hoop andere output. Maar het is mij niet duidelijk hoe ik die kan gebruiken om hetgeen te vinden waarnaar ik op zoek ben. De verklarende waarde per groep variabelen dus. Kan jij me dat uitleggen?
Dank
Het percentage dat zo'n extra variabele verklaart is het verschil tussen de R2 met en zonder die variabele(volgens mij, of anders dat getal met een verwaarloosbaar verschil).quote:Op donderdag 19 juli 2012 09:21 schreef bart1074 het volgende:
Ook ik heb wat SPSS hulp nodig. Voor mijn scriptie onderzoek voer ik regressies uit in SPSS.
De onafhankelijke variabelen in het model heb ik ingedeeld in vier groepen (fysieke, sociale, locatie en prijs variabelen). Om uiteindelijk statistisch het sterkste model te vinden gebruik ik de zgn. 'enter methode' voor het toevoegen van de variabelen (groepen) aan het model. Het komt er op neer dat ik uiteindelijk vier regressie modellen heb. Het eerste model heeft slechts 1 groep onafhankelijke variabelen in het model, terwijl het vierde model alle vier de groepen in het model meeneemt.
Dit vierde model is dan ook het sterkste. Althans dat heeft de hoogste verklarende waarde (R-square).
Dit is ook uit te lezen in de 'model summary' die hier beneden is afgebeeld. Wat ik graag wil weten is wat de individuele verklarende waarde is per groep in het laatste model. Dus wat is de statistisch verklarende waarde van groep 1, 2, 3 en 4 in model 4. Dus welk percentage van 73,8% (R-square) verklaart elke groep individueel. De model summary geeft deze statistiek alleen cumulatief. Is er in SPSS een manier om dit te vinden? Zo ja, hoe?
[ afbeelding ]
Nee dat i niet helemaal waar. Stel dat je twee variabelen hebt, A en B. A en B correleren met elkaar met .5quote:Op donderdag 19 juli 2012 09:49 schreef Fingon het volgende:
[..]
Het percentage dat zo'n extra variabele verklaart is het verschil tussen de R2 met en zonder die variabele(volgens mij, of anders dat getal met een verwaarloosbaar verschil).
Het staat trouwens gewoon theoretisch vast dat je met een extra variabele nooit slechter kan verklaren, dus dat zou geen verrassing moeten zijn dat een model met meer variabelen een hogere R2 heeft.
Dat is dus niet waar, want het is sterk afhankelijk van de volgorde waarin de groepen van variabelen worden toegevoegd. Via die 'enter methode' heb ik dus de beste volgorde gevonden en daarmee het definitieve model. Nu wil ik weten wat de verklarende waarde per groep is in dit definitieve model. Volgens mij is dit dus niet zo simpel als verschillen in R2...quote:Op donderdag 19 juli 2012 09:49 schreef Fingon het volgende:
[..]
Het percentage dat zo'n extra variabele verklaart is het verschil tussen de R2 met en zonder die variabele(volgens mij, of anders dat getal met een verwaarloosbaar verschil).
Het staat trouwens gewoon theoretisch vast dat je met een extra variabele nooit slechter kan verklaren, dus dat zou geen verrassing moeten zijn dat een model met meer variabelen een hogere R2 heeft.
Klopt, dus post die tabel eventjes dan kan ik het uitleggen ^^quote:Op donderdag 19 juli 2012 09:54 schreef bart1074 het volgende:
[..]
Dat is dus niet waar, want het is sterk afhankelijk van de volgorde waarin de groepen van variabelen worden toegevoegd. Via die 'enter methode' heb ik dus de beste volgorde gevonden en daarmee het definitieve model. Nu wil ik weten wat de verklarende waarde per groep is in dit definitieve model. Volgens mij is dit dus niet zo simpel als verschillen in R2...
Feit is wel dat je nooit een hogere R2 kan krijgen met minder (van dezelfde) variabelen.quote:Op donderdag 19 juli 2012 09:54 schreef oompaloompa het volgende:
[..]
Nee dat i niet helemaal waar. Stel dat je twee variabelen hebt, A en B. A en B correleren met elkaar met .5
Als je alleen A in het model toevoegt zal de verklaarde variantie van A overschat worden omdat dat gedeelte dat door B verklaard wordt maar niet in het model meegenomen is, voor die .5 door A vrklaard zal worden.
Alvast bedankt voor je hulp. Hier kan je een excel file downloaden met de volledige output.quote:Op donderdag 19 juli 2012 09:43 schreef oompaloompa het volgende:
[..]
Kun je even de tabel copy pasten van model 4 met de regressiecoefficienten?
Klopt. Daarom heb je helemaal op het einde van de tabel de sig. F change. Die kijkt of de toegenomen verklaarde variantie t.o.v. de toegenomen degrees of freedom wel significant is.quote:Op donderdag 19 juli 2012 09:56 schreef Fingon het volgende:
[..]
Feit is wel dat je nooit een hogere R2 kan krijgen met minder (van dezelfde) variabelen.
In de excell file staat alleen dezelfde tabel als die je hier gepost hebt.quote:Op donderdag 19 juli 2012 09:58 schreef bart1074 het volgende:
[..]
Alvast bedankt voor je hulp. Hier kan je een excel file downloaden met de volledige output.
Hm, alleen dit zijn Kaplan-meier plots en heb geen zin om alle data en vervolgens de grafieken etc ook weer aan te passen in excel..quote:Op vrijdag 27 juli 2012 14:59 schreef oompaloompa het volgende:
Ik maak mijn grafieken altijd in excell omdat je daar veel flexibeler in kunt zijn, geen oplossing voor je probleem maar misschien wle een goede b-optie.
Is je DV categorisch? Dus mensen hebben of westers, of opkomend of maakt niet uit, of is het een schaal?quote:Op zondag 29 juli 2012 23:28 schreef DutchCow het volgende:
Ik ben bezig met mijn bachelorscriptie, waarin ik onderzoek doe naar de verschillen tussen studenten die een internationale carriere nastreven in
1) een Westers land
2) een Opkomende Economie
3) maakt niet uit
Hiervoor heb ik aan de hand van theorie 6 variabelen ontwikkelt en een vragenlijst geconstrueerd, met meerdere items per variabele.
Dit is mijn conceptuele model:
[ link | afbeelding ]
Gezien mijn afhankelijke variabele een categorische(/nominale) is met 3 categorieën, moet ik volgens veel literatuur een Discriminantmieanalyse of een Logistische regressie uitvoeren. Met de uitkomst van deze toetsen krijg ik voornamelijk kansverwachtingen.
Het klinkt voor mij echter intuïtiever om een er een analyse op basis van T-testen op los te laten, zoals een ANOVA. Ik wil uiteindelijk immers de verschillen in gemiddelden weten, om te bepalen of studenten die kiezen voor een Westers land bijvoorbeeld meer aangetrokken worden door een hogere levenskwaliteit, en diegenen die voor opkomende economieën kiezen (bijvoorbeeld) voor de Cultuur.
>>Wat is jullie mening? Heb ik mijn conceptueel model gewoon verkeerd getekend?
(Als je met DV Dependent Variabele bedoelt): Ik heb dit inderdaad een beetje onduidelijk aangeven.quote:Op zondag 29 juli 2012 23:32 schreef oompaloompa het volgende:
[..]
Is je DV categorisch? Dus mensen hebben of westers, of opkomend of maakt niet uit, of is het een schaal?
Ik heb de oplossing zelf gevonden, dus voor iedereen die hier ook problemen mee heeft:quote:Op vrijdag 27 juli 2012 14:47 schreef June. het volgende:
Iemand enig idee hoe je verschillende grafieken op dezelfde grootte kan maken? Dus als je ze dan in word plakt, ze dan precies op 1 lijn naast elkaar komen staan. Height en width hetzelfde maken werkt op 1 of andere manier niet..
Ik zou gewoon 0-7 doen en anovas / t-toetsen. Zodra je het hercategoriseert verlies je waardevolle informatie (6 is niet hetzelfde als 7 net zomin als 0 hetzelfde als 5 niet-westers) vraag is alleen of je westers v.s. opkomend als 1 categorie met twee uitersten kunt zien of dat je westers en opkomend als twee losse Dependents moet nemen.quote:Op zondag 29 juli 2012 23:46 schreef DutchCow het volgende:
[..]
(Als je met DV Dependent Variabele bedoelt): Ik heb dit inderdaad een beetje onduidelijk aangeven.
Ik heb een vragenlijst uitgedeeld waarin de respondenten eerst 7 voorkeurslanden mochten aangeven. Daaruit heb ik de drie categorieën gemaakt:
Als er 6 of 7 Westerse landen werden gemarkeerd: Klasse = Westers
Als er 6 of 7 Opkomende landen werden gemarkeerd: Klasse = Opkomend
Als dit niet het geval was: Geen specifieke voorkeur.
Ik zou dit natuurlijk ook als een metrische schaal kunnen zien (Westers met de waarden 1,2,3,4,5,6 of 7)..
Nice, goed om te weten als ik ooit tegen dit probleem aanloop!quote:Op zondag 29 juli 2012 23:58 schreef June. het volgende:
[..]
Ik heb de oplossing zelf gevonden, dus voor iedereen die hier ook problemen mee heeft:
In je graph editor kun je van een bestaande grafiek een template maken (ergens onder file) en deze kun je dan weer toepassen op je andere grafieken .
Ik zit er nog even overna te denken waarom ik destijds in mijn onderzoeksopzet voor de categorieën gekozen heb. Ik denk dat de 0-7 oplossing inderdaad duidelijker is. Ik zit alleen nog met een klein probleem: er zijn meer 'westerse' landen in de landenlijst dan 'opkomende landen'.. De kans dat men voor een westers land kiest is dus groter. Moet en kan ik hiervoor corrigeren?quote:Op maandag 30 juli 2012 00:04 schreef oompaloompa het volgende:
[..]
Ik zou gewoon 0-7 doen en anovas / t-toetsen. Zodra je het hercategoriseert verlies je waardevolle informatie (6 is niet hetzelfde als 7 net zomin als 0 hetzelfde als 5 niet-westers) vraag is alleen of je westers v.s. opkomend als 1 categorie met twee uitersten kunt zien of dat je westers en opkomend als twee losse Dependents moet nemen.
Zolang je mensen onderling vergelijkt niet, als je absolute claims wilt maken wel, maar dat gaat nogal moeilijk. Zou het alleen noemen in de discussie.quote:Op maandag 30 juli 2012 00:11 schreef DutchCow het volgende:
[..]
Ik zit er nog even overna te denken waarom ik destijds in mijn onderzoeksopzet voor de categorieën gekozen heb. Ik denk dat de 0-7 oplossing inderdaad duidelijker is. Ik zit alleen nog met een klein probleem: er zijn meer 'westerse' landen in de landenlijst dan 'opkomende landen'.. De kans dat men voor een westers land kiest is dus groter. Moet en kan ik hiervoor corrigeren?
Neem dit niet verkeerd op, maar het klinkt alsof je eigenlijk niet zo goed weet wat je aan het doen bent.quote:Op maandag 30 juli 2012 12:26 schreef DutchCow het volgende:
(echt bedankt voor je snelle reacties oompaloompa!)
Sorry dat ik weet terugkom met mijn vraag, maar ik kom er echt niet meer uit
Het komt erop neer dat ik onderzoek:
->Welke factoren van invloed zijn op de keuze tussen een westers of een opkomend land (deze deelvraag is reeds onderzocht in het literaire deel, daaruit heb ik zes variabelen gemaakt en gemeten)
Een volgende deelvraag is:
Wat de verschillen in motieven zijn om in een opkomend- of een westers land te willen werken. Hierbij verwacht ik dus dat op sommige variabelen de westerse groep hoger scoort dan de andere groep (de opkomende landen).
Simpel zou je zeggen: Gooi er in SPSS een ANOVA overheen, de 6 variabelen worden dan ingevuld als dependent, en de landklasse (westers, opkomend, geen voorkeur) als 'factor' waarop wordt gegroepeerd. Ik krijg dan ook netjes de significante verschillen in gemiddelden, hiep hiep hoera!
Maarrr.. Kijkend naar mijn conceptuele model (zie figuur in mijn post hierboven) mag ik toch helemaal geen ANOVA gebruiken? De onafhankelijke variabelen zijn in mijn SPSS invoer ingevoerd als de AFhankelijke? Ik keer als het ware mijn hele conceptuele model om, dat is toch vreemd?
[edit]: verder lees ik dat ANOVA gebruikelijk is in experimenten, terwijl mijn onderzoek natuurlijk de werkelijkheid tracht te omschrijven, zonder als onderzoeker deze te beïnvloeden[/edit]
Ik snap totaal niet wat je bedoeltquote:Op maandag 30 juli 2012 12:50 schreef automatic_ het volgende:
Oke... Ik voel mijzelf nu echt onwijs stom
Mijn data bestaat uit kinderen van 5 - 18 jaar met een ziekte. In de leeftijdsgroep van 8-12 jaar heb ik data van gezonde kinderen. Ik heb daarom deze kinderen in één bestand gezet met mijn zieke kinderen van 8-12 jaar en daarbij heb ik gekeken of er verschillen zijn. Dit ging gewoon prima.
Nu heb ik een artikel gevonden waar ook data in staat van gezonde kinderen, in dezelfde leeftijdsgroep en deze ga ik als (extra) referentie-groep gebruiken.
Ik heb deze gemiddelden nu in een SPSS bestand gezet en daarbij ook mijn eigen gemiddelden. Hier heb ik een t-test op los gelaten (totale groep van 5-18 jaar, gezond/ziek) en daar kwamen de nodige getallen uit. Prima.
Maar... Nu wil ik nog de gemiddelde toetsen van 5-7 jaar en 13-18 jaar met deze referentiegroep. Echter, ik snap niet goed hoe ik dat moet doen
Ik heb daarbij de data (dus alleen de gemiddelden van de vier variabelen van gezonde als zieke kinderen) van 5-7 in een bestand gezet.
Als ik het namelijk doe zoals ik het bij de hele groep heb gedaan (dus 5-18 gezond en 5-18 ziek), dan rekent hij verder niets uit.
Maar hoe doe je een t-test zonder sd?quote:Op maandag 30 juli 2012 13:18 schreef automatic_ het volgende:
Uitleg is niet mijn sterkte kant
Nee, van de referentiegroep uit het artikel heb ik alleen de gemiddelde (en eventueel ook de SD, maar ik heb nu alleen de gemiddelde in een bestand gezet).
En ik probeerde een t-test te doen. Ik kom er zo even op terug!
Weet ik veel Haha.quote:Op maandag 30 juli 2012 13:40 schreef oompaloompa het volgende:
[..]
Maar hoe doe je een t-test zonder sd?
je kunt niet gewoon een 1-sample doen
Tuurlijk, ben alleen wel zo weg van internet, dus alvast een tip. Om een t-test te doen heb je een gemiddelde en spreiding nodig. Als je geen raw data hebt, is het waarschijnlijk het gemakkelijkste gewoon een t-test met de hand (excell/rekenmachine) te doen.quote:Op maandag 30 juli 2012 13:48 schreef automatic_ het volgende:
Mag ik het anders even "duidelijk" (althans... dat probeer ik) in een mailtje zetten?
Als je methodenonderwijs een beetje goed is, heb je dat gehad jaquote:Op maandag 30 juli 2012 13:53 schreef automatic_ het volgende:
Mailtje is al onderweg, haha. Geen probleem als het niet lukt om er naar te kijken!
Een t-test met de hand?! Oh hemel... Heb ik dat ooit geleerd?
Ja, dat is vast goed geweest, maar ook jij kent mijn SPSS / Statistiek / MTO kunstenquote:Op maandag 30 juli 2012 15:12 schreef Sandertje23 het volgende:
[..]
Als je methodenonderwijs een beetje goed is, heb je dat gehad ja
Maar, ik heb dat onduidelijk weergegeven, de variabelen in groep 1 en 2 zijn andere variabelen. Het gaat om een conjunct analyse waarbij Groep 1 een type kamer is, waarvan 1 = eenpersoonskamer, 2 = tweepersoonskamer en 3 is 4 of meer persoonskamer. En Groep twee is Uitzicht met 1 landschap, 2 stad, 3 park. Mensen die een eenpersoonskamer kiezne kunnen dus ook kiezen voor een landschap maar daar heb ik geen informatie over. Dan mag ik ze toch niet op die manier vergelijken?quote:Op dinsdag 7 augustus 2012 10:13 schreef crossover het volgende:
Volgens mij moet je drie variabelen maken.
(1) geeft aan of het om groep 1 of 2 gaat
(2) geeft aan of het 1, 2 of 3 betreft
(3) de aantallen, die je vervolgens weegt via data - weigh variables of zo. Ergens onderaan de lijst.
Bij crosstabs geeft je dan de variabele van groep 1 en groep twee als layer op.
Oke, geeft niets! Ik had er professionele hulp voor ingeschakeld, maar zei had eigenlijk alleen gezegd dat ik een chi² kon doen hierop om te kijken of ze verschilden maar nu ben ik zelf enorm gaan twijfelen en is zij op vakantie.. Paniek hier dus!quote:Op dinsdag 7 augustus 2012 10:46 schreef crossover het volgende:
Ik zou hier dieper op in moeten gaan om hier goed antwoord op te geven en daar heb ik helaas geen tijd voor.. misschien kan je professionele hulp inschakelen of een collega(-student) vragen?
Heb je alleen jaar als onafhankelijke variabele? Dan is het een simpele 1-way-ANOVA en hoef je niets te hercoderen.quote:Op woensdag 8 augustus 2012 23:33 schreef Melli7 het volgende:
Hey allemaal,
deze vraag is vooral naar Vreemdeeend gericht, maar anderen mogen natuurlijk ook antwoorden.
Ik heb in SPSS (wat anders) een onafhankelijke variabele "jaar". Deze variabele bestaat uit de jaren 1999, 2006 en 2010. Ik gebruik namelijk data van deze drie jaren om mijn onderzoek te verrichten. Ik wil onderzoeken of deze variabele ook een invloed heeft op mijn afhankelijke variabele.
Ik vraag me nu echter af hoe ik deze variabele moet coderen? Gebruik ik hem als continue variabele en steek ik hem "gewoon" in mijn model OF zet ik het over in dummy's waarbij ik een referentiecategorie kies?
Alvast bedankt!
Klopt, gewoon dummy-variabelen gebruiken in dit gevalquote:Op donderdag 9 augustus 2012 12:04 schreef crossover het volgende:
Geeft niet ;-)
Ik zou in dit geval voor de optie gaan met de minste variabelen (en dus minder vrijheidsgraden, dus meer accurate voorspellingen, dus eerder significantie). Dus omrekenen naar leeftijd en vervolgens als één variabele toevoegen.
Het valt me trouwens nu wel op dat je maar drie categorieen hebt, dus bovenstaand verhaal van mij weegt niet zo zwaar omdat je met dummies maar 1 extra variabele hebt.... dit brengt me weer aan het twijfelen.... ik zou er toch dummy's van maken vanwege het gebrek aan variantie.
Over je eerste vraag vond ik dit op internet. Vrij duidelijk uitgelegd:quote:Op donderdag 9 augustus 2012 22:44 schreef L.J.V. het volgende:
hallo, kan iemand mij met het volgende helpen?
Ik heb bij meerdere regressie analyses enkele onverklaarbare negatieve Beta waarden. Deze horen overduidelijk niet negatief te zijn.
Wat zou er mis kunnen zijn gegaan?
De data is redelijk normaal verdeeld, dus dat is het probleem niet..
Oja en nog een vraagje over de output, als ik dus een lineaire regressie analsye doe, dan komt er een tabel genaamd coefficients (met oa de beta waarden). (na het anova tabel waarin mijn significante r2change in staan)
Ik doe meerdere stappen (dmv Enter), moet ik dan als ik naar de Beta waarden kijk alleen naar het laatste model kijken? (In die tabel staat er een verdeling van model 1, 2 en 3, waarbij alle variabelen er in de 3e in staan). Ik heb namelijk soms in bijv deel 2 wel significante beta waarden, maar dan in deel 3 zijn ze nonsign geworden.
Ik hoop dat iemand mn vragen begrijpt (en antwoorden weet).
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.Voor die tweede zou ik in mijn statistiek bijbel van Field moeten kijken en die heb ik nu niet bij de hand..
Heb ook geen idee of je vraag nu is opgelost hoor, maar ik was wel benieuwd wat negatieve Betas betekenden dus had het opgezocht
Ik zou even een correlatiematrix maken en die goed bekijken.quote:Op vrijdag 10 augustus 2012 13:18 schreef L.J.V. het volgende:
dankjewel! ik moet dus idd naar het laatste model kijken.
Verder is het raar dat die betas negatief zijn, aangezien uit de literatuur blijkt dat die positief horen te zijn.
Het is dus zeer tegenstrijdig met alle literatuur die er over dit onderwerp bestaat.
ik denk dat ik dubieuze data heb.
Je redenatie verwisselt oorzaak en gevolg. Als het alleen maar zou zijn om moeilijker significant te worden, zou je gewoon een correctie kunnen gebruiken.quote:Op zaterdag 18 augustus 2012 10:00 schreef crossover het volgende:
Wie weet er waarom de DF lager wordt wanneer de assumptie van gelijke varianties (Levene's test) wordt geschonden (dus significant is)? Is dit om te compenseren voor een type 1 fout? Mijn redenatie is dat bij verlaging van de df het effect groter moet zijn om een significant verschil te krijgen. Any thoughts?
Voorbeeld:
[ afbeelding ]
Hmm niet helemaal.quote:Op zaterdag 18 augustus 2012 10:31 schreef crossover het volgende:
Dus het komt er op neer dat niet de reguliere df gebruikt kan worden maar omdat er sprake is van ongelijke varianties moet deze op een andere manier geschat worden?
Als het goed is kun je op de tabel in je output dubbelclicken. Daarin kun je aanassen hoeveel getallen je achter de comma wilt dus ik vermoed dat je daar ook de max charaters voor strings aan kunt passen.quote:Op maandag 20 augustus 2012 22:45 schreef yozd het volgende:
Ik heb een databestand met strings van 1200 characters. Die wil ik graag "listen", maar in de output krijg ik ze maar tot 255 characters. Hij breekt de informatie dus af in de viewer. Hoe stel ik het in dat ik alles te zien krijg?
Het is me niet gelukt. Ik heb het nu met summarize gedaan.quote:Op maandag 20 augustus 2012 23:54 schreef oompaloompa het volgende:
Als het goed is kun je op de tabel in je output dubbelclicken. Daarin kun je aanassen hoeveel getallen je achter de comma wilt dus ik vermoed dat je daar ook de max charaters voor strings aan kunt passen.
Ik vind dit toch nog steeds moeilijk te vatten. Ander voorbeeld;quote:Op woensdag 29 augustus 2012 13:06 schreef yozd het volgende:
Ik heb een dichotome afhankelijke variabele (y1): "wel" of "niet". Nu heb ik 3 (x1, x2, x3) onafhankelijke variabelen (op interval schaal) waarvan ik wil testen wat de invloed van ze is op die afhankelijke.
Alleen x1 op y1 geeft een significant verband.
Alleen x2 op y1 geeft een significant verband.
Alleen x3 op y1 geeft een significant verband.
Maar:
x1 en x2 en x3 tegelijk in het model gooien geeft voor allen een niet significant verband.
Kan iemand mij de logica hierachter uitleggen?
Ik heb er totaal geen problemen mee, werkt al jaren als een trein.quote:Op maandag 10 september 2012 18:37 schreef Stienn het volgende:
Werkt dat een beetje? Hoor van een aantal mensen dat hij vaak vast loopt e.d.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 | INPUT PROGRAM. LOOP #i=1 to 600. COMPUTE id=#i. COMPUTE x=RV.NORMAL(0,1). END CASE. END LOOP. END FILE. END INPUT PROGRAM. EXECUTE. |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 | INPUT PROGRAM. LOOP #i=1 to 600. COMPUTE id=#i. COMPUTE x=RV.NORMAL(0,1). END CASE. END LOOP. END FILE. END INPUT PROGRAM. EXECUTE. DESCRIPTIVES VARIABLES=x /SAVE /STATISTICS=MEAN STDDEV MIN MAX. compute Zxnormaalverdeeld = 5.5 + (1.80*Zx). execute. EXAMINE VARIABLES=Zxnormaalverdeeld /PLOT BOXPLOT STEMLEAF NPPLOT /COMPARE GROUPS /STATISTICS DESCRIPTIVES /CINTERVAL 95 /MISSING LISTWISE /NOTOTAL. |
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.Links is hoe mijn docent het heeft gedaan. Recht is hoe ik de Boxplot krijg.
Mijn vraag is, hoe krijg ik de boxplot zo omgedraaid, dat de assen hetzelfde staan, als de linker boxplot? Het gaat mij niet om lay out etc, echt puur om het draaien van de assen.
Ik heb mij suf gegoogled, het boek geraadpleegd, nergens tref ik ook maar iets hierover aan. Zelfs op google afbeeldingen, staan alle boxplots zo als de rechter boxplot.
Can someone pls help me out?
quote:Op zondag 4 november 2012 20:38 schreef crossover het volgende:
Dubbelklik op de grafiek, Options, Transpose chart.
Ik werk met de Mac versie en ik kon zonder problemen bestanden uitwisselen met windowsgebruikers toen dat nodig was. Gebruiken jullie een verschillende versie? (qua nummer dan)quote:Op woensdag 21 november 2012 15:26 schreef BrainTeaser het volgende:
Vraagje over SPSS i.c.m. met Windows en Mac:
Als een SPSS-bestand (.sav) is aangemaakt en opgeslagen op een Windows PC, is dat bestand dan altijd zonder meer te openen op een Mac?
Want krijg net van een Mac gebruiker te horen dat hij alleen maar een rits met verschillende tekens te zien krijgt als hij het bestand opent, terwijl het er bij mij gewoon goed uit ziet.
Iemand een idee wat hier het probleem kan zijn (conversie-programma nodig ofzo)?
Dat kan ik inderdaad nog wel even vragen ja! Maar dat zou toch over het algemeen ook geen probleem moeten zijn, of wel?quote:Op woensdag 21 november 2012 16:36 schreef Operc het volgende:
[..]
Ik werk met de Mac versie en ik kon zonder problemen bestanden uitwisselen met windowsgebruikers toen dat nodig was. Gebruiken jullie een verschillende versie? (qua nummer dan)
Bovenstaande vraag staat nog steeds... En inmiddels nog een vraag erbij.quote:Op woensdag 21 november 2012 10:17 schreef Pinklady89 het volgende:
Oké, waarschijnlijk kom ik nu echt met de domste vraag ever.... Maar als ik mijn output opsla op een computer, die output vervolgens mail (en opsla op de harde schijf) en probeer te openen op een andere computer, krijg ik die output niet normaal geopend. Alle grafieken opent 'ie netjes, maar alle tabellen blijven tot in den eeuwigheid op "processing" staan. Ergo: ik doe iets verkeerd. Maar wat....? En hoe doe ik het wel goed?
Het zou me heel wat analyses opnieuw doen schelen...
Ik ga er vanuit van niet nee. Je mag hem best even naar mij sturen, dan kijk ik even of ik het op mijn mac gewoon kan uitlezen.quote:Op woensdag 21 november 2012 18:12 schreef BrainTeaser het volgende:
[..]
Dat kan ik inderdaad nog wel even vragen ja! Maar dat zou toch over het algemeen ook geen probleem moeten zijn, of wel?
Die tweede vraag heb ik geen antwoord op. Wat betreft de eerste: Heb je op die andere computer wel SPSS geïnstalleerd staan? En als je analyses liever niet opnieuw wil doen (qua knopjes aanklikken) is het misschien handig om voortaan de syntax ook op te slaan. Dan kun je daarna met 1 druk op de knop alle output genereren van de analyses die je op de data hebt losgelaten.quote:Op woensdag 21 november 2012 18:14 schreef Pinklady89 het volgende:
[..]
Bovenstaande vraag staat nog steeds... En inmiddels nog een vraag erbij.
Ja, ik heb op die computer SPSS staan. Die syntax sla ik nu inderdaad op, maar irritant blijft het. Bedankt voor je input in ieder geval!quote:Op woensdag 21 november 2012 19:01 schreef Operc het volgende:
[..]
Die tweede vraag heb ik geen antwoord op. Wat betreft de eerste: Heb je op die andere computer wel SPSS geïnstalleerd staan? En als je analyses liever niet opnieuw wil doen (qua knopjes aanklikken) is het misschien handig om voortaan de syntax ook op te slaan. Dan kun je daarna met 1 druk op de knop alle output genereren van de analyses die je op de data hebt losgelaten.
Ik zou willen, maar zoals je het hierboven stelt, snap ik er helemaal niets van. Dus ik ben bang dat ik je niet kán helpen.quote:Op woensdag 21 november 2012 18:15 schreef Skv het volgende:
Zijn hier mensen die aardig kunnen SPSSen en willen helpen met analyses?
Het gaat om:
-Omzetten van stellingen in waarden op vier determinanten
-Deze determinanten linken aan gekozen vormen voor samenwerking
-Deze vormen van samenwerking linken aan stellingen die effectiviteit meten
Ik kom er niet meer uit
heb hier een tijdje geleden veel mensen uit dit topic zelf geholpen met SPSS, maar ik heb mijn laatste vak vijf jaar geleden gehad. Ben er helemaal uit en heb geen tijd om het me weer eigen te maken.
Wat bedoel je precies met dat eerste? Omscoren "mee eens" etc naar cijfers?quote:Op woensdag 21 november 2012 18:15 schreef Skv het volgende:
Zijn hier mensen die aardig kunnen SPSSen en willen helpen met analyses?
Het gaat om:
-Omzetten van stellingen in waarden op vier determinanten
-Deze determinanten linken aan gekozen vormen voor samenwerking
-Deze vormen van samenwerking linken aan stellingen die effectiviteit meten
Normaal gezien zou de outputfile wel gewoon moeten werken, misschien computer opnieuw opstarten of iets dergelijks? (Of een versie probleem ofzo?)quote:Op woensdag 21 november 2012 19:06 schreef Pinklady89 het volgende:
[..]
Ja, ik heb op die computer SPSS staan. Die syntax sla ik nu inderdaad op, maar irritant blijft het. Bedankt voor je input in ieder geval!
[..]
Ik zou willen, maar zoals je het hierboven stelt, snap ik er helemaal niets van. Dus ik ben bang dat ik je niet kán helpen.
Ik zal mijn best doen het even normaal te verwoordenquote:Op woensdag 21 november 2012 19:06 schreef Pinklady89 het volgende:
[..]
Ja, ik heb op die computer SPSS staan. Die syntax sla ik nu inderdaad op, maar irritant blijft het. Bedankt voor je input in ieder geval!
[..]
Ik zou willen, maar zoals je het hierboven stelt, snap ik er helemaal niets van. Dus ik ben bang dat ik je niet kán helpen.
Er zijn genoeg bedrijfjes die je daar bij kunnen helpen. Op marktplaats staan ze bijvoorbeeld.quote:Op donderdag 22 november 2012 08:34 schreef Skv het volgende:
[..]
Ik zal mijn best doen het even normaal te verwoorden
Je eerste vraag; dat is een bekend probleem. De dataset is dan nodig voor die ander om de output te kunnen zien. Heb het ook heel erg vaak gehad. Een work around is om de output te exporteren naar .doc of .pdf.quote:Op woensdag 21 november 2012 18:14 schreef Pinklady89 het volgende:
[..]
Bovenstaande vraag staat nog steeds... En inmiddels nog een vraag erbij.
Het gaat om een (hïerarchische) regressieanalyse.
In mijn model summary heb ik twee F-waardes. Nu dacht ik eigenlijk dat die F-waardes (incl. significantie) gelijk moesten zijn aan de F-waardes in de ANOVA-tabel. Dat is dus niet zo. Alleen de F-waarde van model 1 is gelijk, maar de F-waarde van model 2 wijkt af. Wat is die F-waarde van model 2 in de ANOVA-tabel dan? En waarom gebruik ik bij de beschrijving van mijn resultaten wel de vrijheidsgraden uit de ANOVA-tabel?
Dank je voor je antwoord. Het roept nog meer vragen op, dus die stel ik gewoon. Als je geen zin hebt om antwoord te geven, dan hoeft dat of course niet.quote:Op donderdag 22 november 2012 09:33 schreef crossover het volgende:
[..]
Er zijn genoeg bedrijfjes die je daar bij kunnen helpen. Op marktplaats staan ze bijvoorbeeld.
[..]
Je eerste vraag; dat is een bekend probleem. De dataset is dan nodig voor die ander om de output te kunnen zien. Heb het ook heel erg vaak gehad. Een work around is om de output te exporteren naar .doc of .pdf.
Je tweede vraag. Wat je eigenlijk doet met hierarchische regressie is meerdere modellen toetsen en dan bepalen of deze significant meer variantie verklaren. Hierbij maak je gebruik van een zogenaamde F-toets voor modelvergelijking. In die Model Summary staat de F-change en of die verandering significant afwijkt van nul. Dat kan dus dezelfde waarde zijn voor model 1 in de ANOVA tabel.
Je rapporteert de vrijheidsgraden uit de ANOVA-tabel omdat dat de enige vrijheidsgraden zijn die er bestaan in een regressieanalyse, in die twee tabellen zijn ze ook gelijk namelijk. (Mocht je om de een of andere reden toch verschillende DF hebben gevonden, dan is mijn antwoord dat 'we' nu eenmaal hebben afgesproken om de waarden uit de ANOVA tabel te rapporteren. )
Wil je ze samenvoegen tot één score? Dus dat je A, B en C omrekent naar een getal en daarna de twee variabelen optelt, of moet er komen te staan "A5", "C9" etcetera? Dat eerste is mogelijk door de letter variabele te recoden en daarna via compute variable op te tellen. Het tweede kan ik je niet bij helpen.quote:Op vrijdag 4 januari 2013 15:38 schreef Skv het volgende:
Ik heb een vraag over het samenvoegen van twee variabelen.
Eén heeft een standaardbegrip gemeten (A, B, of C) is dus nominaal.
Twee is een score op een statement (schaal van 0 tot 10, dat is toch interval?).
Ik wil deze twee samenvoegen tot één nieuwe variabele. Is dit mogelijk?
Ik heb inmiddels een overzicht ontvangen van school met de verschillen qua hoofdstukken. Dat ik niet hoofdstuk 10 ga lezen van SPSS18 terwijl ze de theorie van hoofdstuk 9 bedoelen. Samen met jullie reacties blijf ik dan bij SPSS18.quote:Op donderdag 3 januari 2013 13:05 schreef Z het volgende:
Ik zou geen nieuw boek kopen. Overlap is vast groot.
Andy Field staat op de aanbevolen literatuurlijst en heb ik inmiddels ook op de ereader staan. De reviews waren iig erg te spreken over dit boek. Zal ook even naar Pallant kijken. Ben een echte complete newbie op dit gebied, maar vind het wel verdomd interessant.quote:Op donderdag 3 januari 2013 13:13 schreef crossover het volgende:
Inderdaad. En daarbij zijn er genoeg boeken online te vinden via de niet gebruikelijke wegen. Ik vind die van Andy Field erg fijn vanwege de heldere uitleg van achterliggende theorie en Pallant als je wat beknopter alle informatie wil.
Voor mij gaat dit feest ook beginnen. Dus je bent niet de enige newbie hierquote:Op zondag 10 februari 2013 01:35 schreef PizzaMizza het volgende:
Binnenkort ook werken met SPSS voor school, dus ik meld me alvast al aan
Volgens mij houdt SPSS geen rekening met Stapel-methodesquote:Op maandag 25 februari 2013 16:14 schreef GoobyPls het volgende:
Als je in SPSS compute variable doet en bijvoorbeeld een variable maakt die een gemiddelde berekent dan lijkt dit niet interactief te zijn. Dat wil zeggen dat als ik een van de items wijzig waarvan die het gemiddelde berekent dan wijzigt die de score niet interactief mee (zoals in excel), kan dit wel?
Goed idee, ik bewaar de syntax gewoon voor als ik nog eventueel wijzigingen heb in de data.quote:Op maandag 25 februari 2013 16:18 schreef Operc het volgende:
[..]
Volgens mij houdt SPSS geen rekening met Stapel-methodes
Ik denk dat je opnieuw compute moet doen, maar als je de syntax bewaart is dat twee seconden werk.
Als je een kwantitatieve scriptie schrijft dan zul je SPSS gebruiken, bij een kwalitatieve scriptie niet.quote:Op woensdag 27 februari 2013 10:46 schreef ntm het volgende:
Ik vraag me af of mensen die hun bachelorscriptie schrijven, spss ook heel erg nodig hebben? Ik moet volgend jaar ook mijn scriptie schrijven maar ben bang dat ik het dan allemaal al weer vergeten ben...het boek van Andy Field helpt trouwens wel goed, daar staat meestal wel uitgelegd hoe alles moet enzo.
Je standaarderror is de stanaarddeviatie van je means.quote:Op zaterdag 2 maart 2013 22:00 schreef Maraca het volgende:
Even een typische zaterdagavond vraag Het is gelukkig een newbie vraag.
Ik zit een beetje tegen de interpretatie van de standard error of mean te hikken. Verschillende bronnen leren mij wat het in theorie is en hoe ik deze kan berekenen, maar niemand die geeft mij aan hoe ik de uitkomst moet lezen. Nu heb ik een mean van 1,8157 en 1,8846 met een standaard deviatie van respectievelijk ,40326 en ,50993 en een standard error mean van respectievelijk ,07129 en ,06230.
Wat zeggen die ,07129 en ,06230 mij over de betrouwbaarheid van de sample ten opzichte van de gehele populatie?
Ok, dan snap ik hem. Bedanktquote:Op zaterdag 2 maart 2013 22:51 schreef oompaloompa het volgende:
[..]
Je standaarderror is de stanaarddeviatie van je means.
In het kort komt het er op neer dat e verwacht dat 95% van de samples die je trekt binnen 2 standaarderrors van de mean af liggen. Hoe kleiner je standaarderror dus is, hoe dichter jouw gevonden mean bij de populatiemean zal liggen over het algemeen.
Sorry, nogal late reactie.quote:Op zaterdag 2 maart 2013 23:22 schreef Maraca het volgende:
[..]
Ok, dan snap ik hem. Bedankt
Dan heb ik nog een vraag. Ik ben nu een correlatiematrix aan het lezen van de independent samples tests en daarin zijn zowel de natuurlijke logaritme als de 'gewone' variabele in opgenomen. Nu staat mij iets bij over dat je de natuurlijke logaritme niet bij alle vergelijkingen kunt gebruiken, omdat deze aangepast is om een normale verdeling te krijgen. Geldt dat ook voor de correlation matrix van de independent samples tests?
Dan correleren je IV's hoog.quote:Op dinsdag 5 maart 2013 13:37 schreef GoobyPls het volgende:
Vraagje, ik heb SPSS data en wil een multi-lineaire regressie doen.
Ik heb schalen de gemiddelden van de independant variables (X+Y) en de dependant variable (Z), verder heb ik nog controle variabelen in de vorm van gemiddelden en dummy variabelen.
Als ik alle dummy's en onafhankelijke variabelen toevoeg aan "independant variables" bij de lineaire regressie dan krijgen sommige een enorm hoge .Sig (0.9), onder andere 1 van mijn 2 independant variable schalen. Als ik deze schaal in zijn eentje afzet tegen de dependant variable dan is de Sig. wel heel laag, hoe kan dat?
wat je moet doen ligt aan de opdracht en aan wat je iv's zijn. In mijn voorbeeld zou het heel erg logisch zijn om te zeggen dat leeftijd lengte voorspelt, maar dat dat komt omdat leeftijd lengste voorspelt wat vervolgens weer gewicht voorspelt. Andersom zou gewoon logisch onmogelijk zijn. Als het om twee persoonlijkheids-schalen gaat, ligt ht al weer wat moeilijker.quote:Op dinsdag 5 maart 2013 14:22 schreef GoobyPls het volgende:
Maar de andere IV heeft wel een lage Sig. value. Wat is dan het beste te doen, als ik ze beide in het model plaats kan ik de een natuurlijk niet gebruiken omdat de Sig. te hoog is.
De R2 is inderdaad een goede indicatie. Verder even kijken of de controle variabelen ook daadwerkelijk de juiste (verwachtte) richting op gaan.quote:Op zaterdag 9 maart 2013 10:38 schreef GoobyPls het volgende:
Thanks Oompaloompa.
Bij mijn volgende vraag aangekomen. Ik heb een aantal controle variabelen (geen constanten, maar covariables waar ik voor wil controleren zoals geslacht, werkervaring, afdeling), sommigen gewoon ordinaal, sommige in de vorm van dummy variabelen.
Hoe kan ik zien dat het toevoegen van de controle variabelen het gewenste effect heeft? Ik zie bijvoorbeeld dat de R square toeneemt dus dat lijkt me wenselijk, waar moet ik nog meer op letten?
\Ben bang dat dat ongeveer klopt.quote:Op zaterdag 9 maart 2013 19:16 schreef Skv het volgende:
Wat kan ik zeggen als mijn verklaarde variantie (r-square) van mijn twee onafhankelijke variabelen en de afhankelijke respectievelijk 0,01 (Sig. 0,6) en 0,022 (Sig 0,437) zijn? Er is positieve relatie, maar niet significant? En betekent dit dan dat er eigenlijk geen donder bewezen is?
Zou een beetje een karige uitkomst zijn van mijn scriptie.
Yeap inderdaad.quote:Op zaterdag 9 maart 2013 19:27 schreef Skv het volgende:
B is toch de coëfficient van de lijn? Die heb ik weergegeven in mijn scatterplot en geeft een flauwe positieve relatie aan. Probleem is waarschijnlijk dat mijn N (30) gewoon te laag is, dus dat kan ik er bij aangeven.
Je zou het bayeseaans kunnen analyseren, maar vermoed dat je daar niet veel verder mee komt.quote:Op zaterdag 9 maart 2013 19:39 schreef Skv het volgende:
I know, maar het totale veld waar ik uitspraken over wil doen bestaat uit 400 organisaties. Hiervan heb ik er 200 aangeschreven, waarvan ik 30 respons van heb gekregen. Iedereen heeft wel wat beters te doen Had het iets te optimistisch ingeschat. Wel een paar interviews aanvullend.
Dat helpt Bedankt!quote:Op dinsdag 5 maart 2013 00:48 schreef oompaloompa het volgende:
[..]
Sorry, nogal late reactie.
Ja als je een logaritmische schaal gebruikt geldt ook voor correlaties dat je daar rekening mee moet houden bij de interpretatie.
Dat kun je snel bekijken door met een voorbeeld te werken. Bv:
1 10
2 100
3 1000
4 10000
met log10 transformatie:
1 1
2 2
3 3
4 4
5 5
De correlatie zal in het tweede geval hoger uitkomen dan in het eerste
Thanks, wat weet jij veel van statistiek. ^^quote:Op zaterdag 9 maart 2013 19:24 schreef oompaloompa het volgende:
[..]
\Ben bang dat dat ongeveer klopt.
Je gegevens betekenen dat er een verband is in je steekproef, maar dat dat verband niet sterk genoeg is om uit te sluiten dat het puur door kans op treedt, je kunt het dus niet generaliseren naar de populatie.
Trouwens de r-square zegt niets over de richting van het verband, om te weten of het een positief of negatief verband is, moet je naar de B kijken.
Onder het kopje 'Extraction' kun je bij 'Extract' een vast aantal factoren opgeven.quote:Op zaterdag 30 maart 2013 14:57 schreef GoobyPls het volgende:
Ik moet een factor analyse doen met varimax rotatie op een schaal waarin 4 subschalen zitten. Nou komen er meer componenten dan dat uit en kun je als goed is in SPSS een varimax draaien waarin je een X aantal componenten wenst te krijgen (in dit geval 4), hoe doe ik dat?
Bedankt!quote:Op zaterdag 30 maart 2013 15:11 schreef Sandertje23 het volgende:
[..]
Onder het kopje 'Extraction' kun je bij 'Extract' een vast aantal factoren opgeven.
Bij een N van minder dan 30 moet je volgens mij ook de t-toets doen ipv de f-toets.quote:Op zaterdag 9 maart 2013 19:27 schreef Skv het volgende:
B is toch de coëfficient van de lijn? Die heb ik weergegeven in mijn scatterplot en geeft een flauwe positieve relatie aan. Probleem is waarschijnlijk dat mijn N (30) gewoon te laag is, dus dat kan ik er bij aangeven.
Ik denk dat de date and time series er niets mee te maken hebben.quote:Op vrijdag 5 april 2013 14:09 schreef Z het volgende:
Gebruik je 'Transform' --> 'Date and Time Wizard'? Als je de syntax paste kan je er vast wat filters omheen zetten.
Super thx! 't is geluktquote:Op vrijdag 5 april 2013 14:46 schreef Z het volgende:
AGGREGATE
/OUTFILE=* MODE=ADDVARIABLES
/BREAK=VAR1
/VAR00002_sum=SUM(VAR2).
Zoiets.
Fixed number of factors mag dus nietquote:Op vrijdag 12 april 2013 11:31 schreef crossover het volgende:
Het aantal factoren moet je baseren op een aantal criteria, bijvoorbeeld Catell's scree plot, Eigenvalues > 1 of een totaal aantal % verklaarde variantie. Dan heb je ook nog parallel analyse maar dat wordt niet zo veel gebruikt en is ook lastiger.
Jawel, maar dan moet je dus op basis van die criteria bepalen hoeveel je er dan precies neemt.quote:Op vrijdag 12 april 2013 12:10 schreef Soldier2000 het volgende:
[..]
Fixed number of factors mag dus niet
Dat is niet lastig voor mij omdat ik gewoon 6 constructs heb, en voor iedere construct heb ik een stel vragen. Dus als ik een fixed number of factors gebruik, pak ik gewoon 6, omdat ik 6 constructs heb. Maar dat mag dus ook gewoonquote:Op vrijdag 12 april 2013 13:55 schreef crossover het volgende:
Vaak draait men in SPSS twee analyses bij EFA. De eerste om te kijken hoeveel factoren het meest waarschijnlijk 'onder' de variabelen liggen, dat doe je dus met de optie 'Eigenvalues greater than 1'. Vervolgens pas je die criteria toe en draai je de analyse nogmaals met het door jou opgegeven aantal factoren. Dat wordt dan de uiteindelijke output (omdat de pattern en structure matrix dat betreffende aantal factoren weergeeft en dan is niet per se het juiste aantal factoren bij de optie 'Eigenvalues greater than 1').
Thanks. Ik heb ze net in excel gezet waar het uiteraard een eitje is. Bepaalde waarden zijn >1 (bijvoorbeeld 0.5), hierbij krijg ik dus negatieve LN waardes. Is dit een probleem?quote:Op dinsdag 16 april 2013 16:17 schreef Z het volgende:
Het in Excel doen? Wellicht heeft jouw versie van SPSS deze functionaliteit niet.
links is de significantie van levenes test, en rechts die van de t-testquote:Op donderdag 25 april 2013 16:58 schreef fh101 het volgende:
even een vraagje over significantie. Ik heb een t toets uitgevoerd en krijg de volgende resultaten:
(ik heb de naam van de variabelen onduidelijk gemaakt, resultaten van het onderzoek moeten nog even anoniem blijven )
[ afbeelding ]
Ik heb hier dus drie toetsen uitgevoerd.
Bij de eerste is de p waarde in het tweede blok 0.019 en dus significant, maar in het vierde blok (sig 2 tailed) staat 0.246 en 0.243. Bij welke moet ik nu precies kijken?
Hetzelfde geldt voor de andere toetsen, maar lijkt me dat dit overal hetzelfde wordt toegepast
Okee, die linkse dan niet dus, dankje!. Maar hoe kom ik er dan achter of de varianties gelijk zijn of niet?quote:Op donderdag 25 april 2013 18:05 schreef Silverdigger2 het volgende:
[..]
links is de significantie van levenes test, en rechts die van de t-test
Die is helder, thanks!quote:Op vrijdag 26 april 2013 10:35 schreef Silverdigger2 het volgende:
http://academic.udayton.edu/gregelvers/psy216/spss/ttests.htm
en dan de independent sample t-test
succes
Zoiets:quote:Op maandag 13 mei 2013 01:09 schreef Silverdigger2 het volgende:
weet iemand toevallig hoe je een variabele hercodeert in gemakkelijke syntax?
ik heb een schaal van 0-100 die ik wil omschalen naar afwijkingen van 50.
dus dan wordt 50 -> 0, en 49->1, 51->1, enz. Nu heb ik dit tot nu toe met de hand gedaan, en kan niet echt een syntax voor dit omcoderen vinden via google
moet dit met de hand of heeft iemand hier een trucje voor?
quote:Op maandag 13 mei 2013 09:14 schreef MrBadGuy het volgende:
[..]
Zoiets:
COMPUTE Nieuw=ABS(Oud-50).
EXECUTE.
Waarbij Oud de naam van de ongecodeerde variabele is en Nieuw de hercodeerde variabele.
hmm misschien niet zo duidelijk opgeschreven maar bedoel echt dat zeg maar dat het midden de nieuwe 0 waarden zijn, en dan de rest van de waarden gerekent vanaf 50 een nieuwe absolute schaal zijn.quote:Op maandag 13 mei 2013 09:59 schreef Z het volgende:
recode varx (0 thru 50 = 1) (51 thru 100 = 2) into vary.
exe.
val lab vary
1 '0-50'
2 '51-100'
.
ben niet zon held met syntax, en bedacht me dat het uitzoeken langer duurde dan het uittypen, maar kan je het zo snel coderen ( 0 thru 50 = 50 thru 0) (51 thru 100 = 1 thru 50) ?quote:Op maandag 13 mei 2013 11:40 schreef Z het volgende:
Dat kan je toch gewoon doen door mijn syntax wat aan te passen.
Maak je gebruik van een Model?quote:Op dinsdag 21 mei 2013 14:28 schreef Baldadig1989 het volgende:
Beste forummer,
Ik ben bezig met SPSS voor mijn scriptie en heb allemaal categoriserende, discrete variabelen waarbij er op een likert schaal van 1-7 antwoord is gegeven. Vraag is nu welk type regressie ik dien te gebruiken.
Als ik regressie goed begrijp heb je voor lineare regressie een afhankelijke variabele nodig die een continue schaal (bv. leeftijd) heeft. Aangezien mijn afhankelijke variable ordinaal is dien ik volgens mij dus ordinale regressie te gebruiken. Is het hierbij een probleem dat ook mijn onafhankelijke variabelen ordinale variabelen zijn? 4
Verder: hoe kan ik gebruik maken van lineare regressie met deze data, kan dit simpelweg gedaan worden door de 'measure' kolom in het variablen overzicht aan te passen van ordinaal naar schaal om dit te bereiken? Dit zodat mijn discrete variabele in een continue variabele veranderd
Alvast bedankt voor enig antwoord!
En waarom maak je dan gebruik van SPSS, en niet van Amos of een PLS applicatiequote:Op dinsdag 21 mei 2013 14:39 schreef Baldadig1989 het volgende:
Als je een conceptueel model bedoeld, ja.
Ik bekijk de invloed van een aantal variabelen op een set andere variabelen. Ik doe dit voor elke afhankelijke variabele opnieuw gezien je maar 1 afhankelijke variabele per keer kan invoeren.
Ga dan toch maar eens kijken naar Amos of bijv. SmartPLS. Ik heb namelijk het idee dat je steeds 1 relatie wilt gaan testen, terwijl je model uit meerdere relaties bestaat. En dan moet je geen SPSS gebruiken, omdat je dan geen rekening houdt met de effecten van andere relaties op die ene relatie die je aan het testen bent.quote:Op dinsdag 21 mei 2013 15:20 schreef Baldadig1989 het volgende:
Ik gebruik SPSS omdat ik hier kennis en ervaring mee heb en dit programma op mijn computer staat. Voor zowel lineare regressie alswel factor analyse. Geen idee wat Amos of een PLS applicatie zijn.
Kan je verder bevestigen of ik het bij het juiste eind heb met mijn veronderstellingen? Ik heb ervaring met voornamelijk lineare regressie via SPSS door effecten te toetsen of afhankelijke, continue variabelen. Dat gaat bij mijn huidige dataset echter helaas niet op.
Laat ik het anders stellen, als jij een valide onderzoek wilt uitvoeren dan moet je je model in 1x testen, dus niet iedere relatie individueel. Daarnaast is de VIF een indicatie, en daar houdt het bij op, er kan nog steeds sprake zijn van enige correlatie tussen variabelen. Daarnaast moet je ook mediation uittestenquote:Op dinsdag 21 mei 2013 20:44 schreef Baldadig1989 het volgende:
Ik test meerdere variabelen op één afhankelijke variabele tegelijk en VIF (variance of inflation of iets dergelijks) geeft aan dat er geen colineariteit is dus dat is het probleem niet. Probleem is dat ik een effecten meet van een ordinale schaal op een ordinale schaal maar heb geen idee hoe dit anders zou kunnen.
Ook is via een scatterplot te zien dat er meestal geen lijn in te trekken is in de relatie tussen 2 variabelen en dat het lijkt alsof alle waarden gewoon willekeurig van elkaar zijn.
Heb je al een frequentie tabel geprobeerd? Analyse - descriptive statistics - frequenties.quote:Op dinsdag 21 mei 2013 14:05 schreef Mhv_Krizzle het volgende:
Ik heb een multiple choice vraag met de mogelijkheid tot het geven van meerdere antwoorden in mijn enquete en daar wil ik graag een tabel van. Verder heb ik al gekeken op maar ik kom er niet uit SES / Centraal SPSS Topic
Vraag:
Op welke manier kunnen externen (klanten, leveranciers) contact opnemen met het bedrijf waar u werkzaam bent (meerdere antwoorden mogelijk)?
Variable view: Value, Label:
1 = "Direct mail"
2 = "Website"
3 = "Telefonisch"
4 = "Social-media (Twitter, Google+, Facebook, LinkedIn etc.)"
5 = "E-mail"
6 = "Free publicity"
En bij Dataview heb ik dus meerdere antwoorden: 1, 2, 3, 4, 5, ingevoerd maar dit wilt niet werken. Verder zou ik niet met meerdere Variabelen willen werken omdat ik veel meerkeuzevragen met meerdere antwoorden heb.
Is het mogelijk om dit te analyseren?
quote:Op dinsdag 21 mei 2013 14:05 schreef Mhv_Krizzle het volgende:
Ik heb een multiple choice vraag met de mogelijkheid tot het geven van meerdere antwoorden in mijn enquete en daar wil ik graag een tabel van. Verder heb ik al gekeken op maar ik kom er niet uit SES / Centraal SPSS Topic
Vraag:
Op welke manier kunnen externen (klanten, leveranciers) contact opnemen met het bedrijf waar u werkzaam bent (meerdere antwoorden mogelijk)?
Variable view: Value, Label:
1 = "Direct mail"
2 = "Website"
3 = "Telefonisch"
4 = "Social-media (Twitter, Google+, Facebook, LinkedIn etc.)"
5 = "E-mail"
6 = "Free publicity"
En bij Dataview heb ik dus meerdere antwoorden: 1, 2, 3, 4, 5, ingevoerd maar dit wilt niet werken. Verder zou ik niet met meerdere Variabelen willen werken omdat ik veel meerkeuzevragen met meerdere antwoorden heb.
Is het mogelijk om dit te analyseren?
Je moet deze hercoderen naar enkele dichotome variabelen. In jouw geval 6.quote:Op dinsdag 21 mei 2013 14:05 schreef Mhv_Krizzle het volgende:
Ik heb een multiple choice vraag met de mogelijkheid tot het geven van meerdere antwoorden in mijn enquete en daar wil ik graag een tabel van. Verder heb ik al gekeken op maar ik kom er niet uit SES / Centraal SPSS Topic
Vraag:
Op welke manier kunnen externen (klanten, leveranciers) contact opnemen met het bedrijf waar u werkzaam bent (meerdere antwoorden mogelijk)?
Variable view: Value, Label:
1 = "Direct mail"
2 = "Website"
3 = "Telefonisch"
4 = "Social-media (Twitter, Google+, Facebook, LinkedIn etc.)"
5 = "E-mail"
6 = "Free publicity"
En bij Dataview heb ik dus meerdere antwoorden: 1, 2, 3, 4, 5, ingevoerd maar dit wilt niet werken. Verder zou ik niet met meerdere Variabelen willen werken omdat ik veel meerkeuzevragen met meerdere antwoorden heb.
Is het mogelijk om dit te analyseren?
Ja oke, ik heb alles een aparte variable gegeven wat een hele klus is ..quote:Op dinsdag 21 mei 2013 21:30 schreef Z het volgende:
[..]
[..]
Je moet deze hercoderen naar enkele dichotome variabelen. In jouw geval 6.
Vx_1 Direct mail
Vx_2 Website
Vx_3 ...
Vx_4 ...
Vx_5 ...
Vx_6 ...
Een '0' in deze variabele als deze niet gekozen is een '1' als het antwoord wel gekozen is.
Via analyse --> multiple response kan je een multiple response variabele samenstellen en er freq's van draaien.
quote:Op dinsdag 21 mei 2013 21:30 schreef Z het volgende:
[..]
[..]
Je moet deze hercoderen naar enkele dichotome variabelen. In jouw geval 6.
Vx_1 Direct mail
Vx_2 Website
Vx_3 ...
Vx_4 ...
Vx_5 ...
Vx_6 ...
Een '0' in deze variabele als deze niet gekozen is een '1' als het antwoord wel gekozen is.
Via analyse --> multiple response kan je een multiple response variabele samenstellen en er freq's van draaien.
FA met 5 items is tricky, het is erg weinig. Wat komt eruit als je twee factoren opgeeft? Wat zijn de eigenvalues?quote:Op donderdag 23 mei 2013 11:09 schreef Arnoldus_K het volgende:
Voor mijn thesis gebruik ik het concept 'religiousness' waarbij ik kijk naar vijf items. Het concept is echter ook op te splitsen in twee concepten (sociale aspect en dogmatische aspect van religie).
Theoretisch gezien klopt dit. Statistisch gezien blijft de vijf-item-scale betrouwbaarder dan de drie-item scale en bovendien wijst Factor Analyse uit dat alle vijf de items hoog laden op het concept 'religiousness'. Het betreft dichotome variabelen.
Wat is wijsheid? Het concept splitsen of niet ?
In je syntax staat dat je maar twee modellen hebt.quote:Op donderdag 23 mei 2013 13:03 schreef TWP het volgende:
Hm, een SPSS probleempje. Hopelijk kan iemand hier me helpen.
Ik moet een regressie uitvoeren waar een interactie in zit. Hierbij test ik hoe het zijn van een immigrant (Znonwestern) invloed heeft op het bewustzijn van deze persoon (ZAON) en hoe de generatie van een de immigrant (Zgeneratie) deze relatie beïnvloedt. Hiervoor heb ik een interactievariabele gemaakt die in het laatste model (model 3) wordt ingevoerd. De syntax ziet er dan als volgt uit:
REGRESSION
/MISSING LISTWISE
/STATISTICS COEFF OUTS R ANOVA
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT ZAON
/METHOD=ENTER Znonwestern Zgeneratie
/METHOD=ENTER gen_nonwest.
Het probleem is nu dat, wanneer ik dit command run, SPSS automatisch de interactie uit mijn model verwijderd. In mijn output wordt model 3 (daar waar de interactie erbij komt) helemaal niet meer weergegeven. Hij is dan alleen nog maar terug te vinden in de tabel van de 'excluded variables'.
Ik hoop dat ik het zo duidelijk heb omschreven. Heeft iemand enig idee wat hier fout gaat? Of wat de oplossing hiervoor is?
Oja sorry, ik ben m'n controlevariabelen vergeten te vermelden in de syntax. Dat is het eerste model.quote:Op donderdag 23 mei 2013 16:27 schreef crossover het volgende:
[..]
In je syntax staat dat je maar twee modellen hebt.
Kan je eens eens de frequentietabellen plaatsen van je variabelen?
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.Is dit wat je bedoelt?:)
Nee, ook daar heeft het niet mee te maken. Maar ik zie al waar het probleem ligt. De verdeling van de interactie is namelijk precies het zelfde als die van een van de hoofdeffecten. Dus de interactie verklaart niks extra's ten opzichte van het hoofdeffect.quote:Op donderdag 23 mei 2013 22:56 schreef crossover het volgende:
Ja dat bedoel ik. Waarom heb je alles gestandaardiseerd? Is niet nodig en mag voor categorische / dichotomie variabelen niet eens. Neem daar eens de normale variabelen voor om te kijken of het probleem daarmee te maken heeft. Zo nee, post dan nogmaals de syntax, foutmelding en wat descriptieve gegevens. Vergeet ook niet de assumpties te checken.
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.Op welke manier moet ik dan een interactie maken van twee dichitome variabelen?:)
Dat heb ik inderdaad gedaan, maar dan krijg ik de variabelen die ik in mijn vorige post heb gezet. En dat blijkt niet te werken in de regressie. Ergens gaat het dus niet helemaal goed?quote:Op vrijdag 24 mei 2013 13:54 schreef crossover het volgende:
Door de dichotome variabele te vermenigvuldigen met de (andere) variabele.
dus
compute XxY = X * Y.
exeucute.
De variabelen gen en gen_nonwest zijn identiek aan elkaar en worden daarom niet meegenomen in je regressie.quote:Op vrijdag 24 mei 2013 14:08 schreef TWP het volgende:
[..]
Dat heb ik inderdaad gedaan, maar dan krijg ik de variabelen die ik in mijn vorige post heb gezet. En dat blijkt niet te werken in de regressie. Ergens gaat het dus niet helemaal goed?
quote:Op vrijdag 24 mei 2013 14:22 schreef crossover het volgende:
[..]
De variabelen gen en gen_nonwest zijn identiek aan elkaar en worden daarom niet meegenomen in je regressie.
Dat vermoed ik.
Kan je een kruistabel maken en posten?
NPquote:Op vrijdag 24 mei 2013 15:19 schreef TWP het volgende:
[..]
[ afbeelding ]
Ik vind het trouwens echt top dat je zo wilt helpen.
Zou je misschien weten op welke manier ik dan de interactie alsnog kan testen? Zou ik het op een andere manier kunnen aanpakken?quote:Op vrijdag 24 mei 2013 19:24 schreef crossover het volgende:
[..]
NP
Maar, zoals ik al dacht, er is sprake van multicollineariteit in de meest extreme vorm. Volledige samenhang, variabelen zijn identiek etc etc etc; dus daarom wordt ie eruit gegooid.
Zoek effe op het Indirect script van Hayes. Misschien lastig om werkend te krijgen, maar als dat het doet dan is het echt ideaal.quote:Op maandag 27 mei 2013 19:10 schreef grashapper het volgende:
Ik heb een vraag.
Ik moet (eventuele) mediatie aantonen. Ik heb X (dichotome variabele) en Y uiteraard, en 4 mogelijke mediatoren M1, M2, M3 en M4.
De opdracht: "Voer in SPSS op de bijgeleverde dataset de analyses uit waarmee je test voor mediatie
0 - Alle noodzakelijke regressieanalyses
0 - Sobel-test(s)"
De "hoofdvraag" is of de mate van M1 groter is als X danwel 0, danwel 1 is. (voor de rest kijken of er andere effecten aanwezig zijn dus)
Alleen ik heb nu dus geen ènkel idee hoe ik hier mee moet beginnen... Waarmee moet ik beginnen om bepaalde effecten te bekijken, wat is stap 1? Ik kan op internet wel mediatie analyse vinden, en ook wel met 2 mediatoren, maar niet meer meerdere...
Waarom doe je niet gewoon spearman rank correlation?quote:Op zondag 26 mei 2013 16:13 schreef Baldadig1989 het volgende:
Hoi,
refererend naar mijn vraag van vorige week over welke regressie type ik dien te gebruiken heb ik van mijn scriptiebegeleider te horen gekregen dat, indien de afhankelijke en onafhankelijke variabele op dezelfde schaal zijn gemeten (bij mij 1-7 likert scales) je dus gewoon linear regression kan gebruiken (godzijdank ).
Mijn vraag is nu, gezien ik 1-7 likert scales categorische data heb, of ik nu chi-square tests kan uitvoeren om te kijken of de variabelen onafhankelijk van elkaar zijn of niet. Nu heb ik een tabel van 7 bij 7 terwijl je in de praktijk meestal 2x2 tabellen ziet. Is mijn tabel nog wel enig verklarend en kan ik pearson's chi-square significantie van dit 7x7 tabel zonder problemen overnemen?
Verder heb ik ook in mijn dataset demografische, categorische data (land, industrie soort, aantal werknemers (onderverdeeld in groepen), en sales (ook onderverdeeld in groepen)) die ik via chi-square wil testen op (on)afhankelijkheid van elke 1-7 likert scale variabele wil testen. Uit de analyse komen helaas weinig significante pearson chi-squares, wat duidt op onafhankelijkheid van de variabele (bijv land=spanje) met een 1-7 likert scale. Klopt ook hier mijn methodiek of dien ik een andere methode toe te passen?
alvast bedankt voor jullie antwoorden!
recode v204 (SYSMIS,-2,-1=1) (else=0) into authomis.quote:Op maandag 27 mei 2013 13:18 schreef Arnoldus_K het volgende:
Kort vraagje mbt het aanmaken van een 'missing-dummy', die ik vervolgens in een logistische regressie wil meenemen. Deze missing-dummy geeft een '1' aan de cases waarbij de data missing is (voor een betreffende variabele) en een '0' aan de cases waar data wel gewoon aanwezig is.
Heb nu dit syntax-command, maar op de een of andere manier herkent hij de missing values niet.
recode v204 (-2 -1=1)(else=0) into authomis.
Bij een cross-tabulation van v204 & authomis geeft SPSS aan dat de missing-dummy enkel een '0'-categorie heeft, terwijl er meer dan 400 cases zijn met een missing. Heeft dit te maken met hoe de missing-value is aangemerkt in variabele v204?
Hier is ergens iets fout gegaan, loop al je stappen na en check alles even.quote:Op maandag 27 mei 2013 13:38 schreef Arnoldus_K het volgende:
En direct nog een vraag er achteraan:
Heb in mijn logistische regressie een dichotome afhankelijke variabele 'tol' waarbij 1=tolerant , 0=niet tolerant.
Daarnaast heb ik als onafhankelijke variabele een geaggregeerde variabele van 'tol' aangemaakt, die de gemiddeldes van de landen opneemt. Ik wil zo kijken naar het effect van het 'normatieve klimaat' in een land op individuele tolerantie-niveaus.
Echter, de Odds Ratio is belachelijk hoog, namelijk 482,52. De twee variabelen zijn niet ernstig met elkaar gecorreleerd (0.245) en ook een crosstab wijst multicollineariteit af (zie plaatje). [ afbeelding ]
PS: Geaggregeerde variabele is zo aangemaakt:
AGGREGATE
/break = country
/drugtolmean = mean(drugtol).
freq drugtolmean.
Ik vond t eerst een beetje een rare vraag van je, maar heb er nog eens naar gekeken en kan me er wel in vinden. Mijn data is ook eigenlijk niet normaal verdeeld dus dan is spearman een betere correlatietoets dan Pearson.quote:Op maandag 27 mei 2013 21:39 schreef crossover het volgende:
[..]
Waarom doe je niet gewoon spearman rank correlation?
Ja, het ligt volgens mij niet aan het recode-command. Heb alle mogelijke opties al langsgelopen, maar het blijft een feit dat de '1'-value bij een frequency-uitdraai wél wordt getoond, maar zodra ik een cross-tabulation met de originele variabele draai óf de missing-dummy toevoeg in een logistische regressie, deze er uit wordt gegooid omdat er enkel een waarde '0' bestaat.quote:Op maandag 27 mei 2013 21:45 schreef crossover het volgende:
recode v204 (SYSMIS,-2,-1=1) (else=0) into authomis.
execute.
(zoiets, kan zijn dat er ergens een foutje zit want ik doe het uit m'n hoofd. pak anders even de syntax reference erbij)
Heb e.e.a. nagelopen, maar kom niet verder. Feit is dat de odds lager worden als ik één van de volgende opties hanteer. Ik heb weinig inzicht in wat hier 'mag'. Wellicht dat iemand hier hulp bij kan bieden?quote:Op maandag 27 mei 2013 21:45 schreef crossover het volgende:
Hier is ergens iets fout gegaan, loop al je stappen na en check alles even.
Bedankt, hier ben ik zeker mee geholpen : )quote:Op dinsdag 28 mei 2013 16:24 schreef Baldadig1989 het volgende:
Als je analyses moet/gaat doen waarin de grootste outliers eruit zijn gehaald dan moet je n=79 gebruiken, als je die outliers alleen wilt definiëren/benoemen en verder gewoon analyses doen, dat moet je n=82 gebruiken. De outliers hebben dan natuurlijk wel invloed op je resultaten.
Aangezien je de outliers er al uit heb gehaald lijkt het mij logischer om met de nieuwe populatie van n=79 verder te gaan.
Ik hoop dat ik je hiermee heb geholpen.
Ook belangrijk, waarom heb je ze uitgesloten?quote:Op dinsdag 28 mei 2013 16:08 schreef Amsterdam227 het volgende:
Ik hoop dat iemand mij kan helpen.
Ik moet een aantal variabelen testen in SPSS en ik had eerst n = 82.
Toen moest ik bij een test een boxplot maken, waaruit bleek dat er een aantal outliers waren. De grootste drie outliers heb ik vervolgens uitgesloten (n = 79).
Daarna ging ik verder met de rest van de tests. Moet je nu bij de tests die je nog moet uitvoeren die n = 79 aanhouden, of neem je gewoon weer dat totaal van 82 mee?
Sorry als ik onduidelijk ben of als er info mist. Ben niet echt een held in SPSS en had het werk een behoorlijke tijd weggelegd, waardoor ik er even uit ben.
Ik mocht alleen respondenten meetellen die Nederlands als moedertaal hadden. Volgens de enquête hadden deze respondenten een zeer lage score aan zichzelf gegeven bij de vraag 'kennis van de Nederlandse taal'.quote:Op dinsdag 28 mei 2013 17:22 schreef Soldier2000 het volgende:
[..]
Ook belangrijk, waarom heb je ze uitgesloten?
Aaah okai, maar je moet inderdaad eerst je data screenen op missing data, outliers , normality, non response bias en common bias. En daarna ga je met je nieuwe dataset n=79 idd pas beginnen met de reliability en validity van je data.quote:Op dinsdag 28 mei 2013 17:48 schreef Amsterdam227 het volgende:
[..]
Ik mocht alleen respondenten meetellen die Nederlands als moedertaal hadden. Volgens de enquête hadden deze respondenten een zeer lage score aan zichzelf gegeven bij de vraag 'kennis van de Nederlandse taal'.
Haha, ik heb zo te zien zojuist mijn eigen vraag beantwoord.. Zoals ik al zei, ik ben er een tijdje uit geweest.. :$
Maar vroeg me dus af of ik dan die tests die ik vóór die boxplot test had gedaan, weer opnieuw moest doen met het nieuwe totaal.
Okay thanks. Dus dan moet ik toch die eerdere tests maar voor de zekerheid opnieuw uitvoeren met die nieuwe dataset. Voor de rest heb ik alles gecheckt op outliers en missing data, dus dan kan ik met die n=79 de rest van de stapel tests gaan doen.quote:Op dinsdag 28 mei 2013 18:04 schreef Soldier2000 het volgende:
[..]
Aaah okai, maar je moet inderdaad eerst je data screenen op missing data, outliers , normality, non response bias en common bias. En daarna ga je met je nieuwe dataset n=79 idd pas beginnen met de reliability en validity van je data.
Hoeveel respondenten heb je die een missing value hebben, en hoeveel respondenten heb je in totaliteit?quote:Op dinsdag 4 juni 2013 10:46 schreef Droplollie het volgende:
Voor mijn afstudeerscriptie ben ik bezig met een SPSS-bestand.
Ik heb van vier variabelen een aantal missings. In mijn onderzoek wil ik logistische regressie doen.
Dit betekent dat er veel respondenten afvallen omdat er ergens missings zijn (toch? of kan je sommige respondenten toch mee laten doen, ondanks een missing in één van de variabelen?)
Nou ben ik na wat struinen op internet erachter gekomen dat je met behulp van imputatie missing values kan invullen. Nu is er allereerst de mogelijkheid voor enkelvoudige imputatie (onder missing value analysis is dit te vinden) de andere optie is multipele imputatie, dit houdt dat er meerdere datasets worden toegevoegd. Dus binnen 1 bestand komen er bijvoorbeeld 5 datasets, waarin de missing values zijn ingevuld. Wanneer ik vervolgens logistische regressie doe, krijg ik het probleem dat er ook 5 regressieanalyses worden uitgevoerd?
Welke manier van imputatie is het beste voor mij? En als dit multipele imputatie is, hoe kan ik er één logistische regressie van maken?
In totaal is mijn N 279. Daarvan houd ik er 189 over wanneer ik een logistische regressie wil doen.quote:Op dinsdag 4 juni 2013 10:55 schreef Soldier2000 het volgende:
[..]
Hoeveel respondenten heb je die een missing value hebben, en hoeveel respondenten heb je in totaliteit?
Tjeemig heb je 90 respondents met missing values??quote:Op dinsdag 4 juni 2013 10:58 schreef Droplollie het volgende:
[..]
In totaal is mijn N 279. Daarvan houd ik er 189 over wanneer ik een logistische regressie wil doen.
Het gaat om data uit een systeem (politieverhoren). Niet alle data was te vinden. Bij 90 respondenten is inderdaad in ieder geval 1 variabele missend.quote:Op dinsdag 4 juni 2013 11:19 schreef Soldier2000 het volgende:
[..]
Tjeemig heb je 90 respondents met missing values??
En wat voor variabelen mis je? Kun je een paar voorbeelden geven. Want iedere methode heeft zo zijn voor en nadelen, en je moet in je thesis echt heel goed gaan onderbouwen hoe je met deze 79 respondenten omgaat.quote:Op dinsdag 4 juni 2013 11:24 schreef Droplollie het volgende:
[..]
Het gaat om data uit een systeem (politieverhoren). Niet alle data was te vinden. Bij 90 respondenten is inderdaad in ieder geval 1 variabele missend.
Al mijn missende variabelen zijn dummyvariabelen (werkend/werkloos ; alcoholgebruik/ geen alcohol gebruik ; ongehuwd / gehuwd ). Mijn informatie van de overige variabelen is compleet (leeftijd / etniciteit / wapengebruik / recidivegedrag / mishandeling ).quote:Op dinsdag 4 juni 2013 11:39 schreef Soldier2000 het volgende:
[..]
En wat voor variabelen mis je? Kun je een paar voorbeelden geven. Want iedere methode heeft zo zijn voor en nadelen, en je moet in je thesis echt heel goed gaan onderbouwen hoe je met deze 79 respondenten omgaat.
Sorry, bedoelde inderdaad 90. Eigenlijk zijn er 3 opties, pairwise deletion, listwise deletion en replacements. Jij hebt zoveel missing values dat ik niet goed zou weten wat in jouw geval de beste oplossing is. Je kunt de cases eruit gooien, maar dat zal waarschijnlijk veel invloed op latere analyses gaan hebben. Als je voor een replacement techniek kiest, dan moet je die nieuwe dataset gebruiken in andere analyses. Alleen je moet wel verdomd goed onderbouwen waarom jij denkt dat dit geen biasen gaat opleveren. Want als je bijv. 50% van je missing values verkeerd zou invullen (met behulp van mean imputatie), dan krijg jij straks waarschijnlijk andere resultaten.quote:Op dinsdag 4 juni 2013 11:51 schreef Droplollie het volgende:
[..]
Al mijn missende variabelen zijn dummyvariabelen (werkend/werkloos ; alcoholgebruik/ geen alcohol gebruik ; ongehuwd / gehuwd ). Mijn informatie van de overige variabelen is compleet (leeftijd / etniciteit / wapengebruik / recidivegedrag / mishandeling ).
Je hebt het over 79 respondenten; even voor de duidelijkheid: mijn N is 279, waarvan er 90 missings zijn.
Ik heb inmiddels gekozen om de data te imputeren (multipele imputatie bij SPSS), volgens mij is dit de meest betrouwbare methode. De dataset is nu 5 keer geimputeerd. Resultaten uit logistische regressie worden dan gepresenteerd met behulp van de gepoolde uitkomsten. Is dit een verantwoorde manier?quote:Op dinsdag 4 juni 2013 14:49 schreef Soldier2000 het volgende:
[..]
Sorry, bedoelde inderdaad 90. Eigenlijk zijn er 3 opties, pairwise deletion, listwise deletion en replacements. Jij hebt zoveel missing values dat ik niet goed zou weten wat in jouw geval de beste oplossing is. Je kunt de cases eruit gooien, maar dat zal waarschijnlijk veel invloed op latere analyses gaan hebben. Als je voor een replacement techniek kiest, dan moet je die nieuwe dataset gebruiken in andere analyses. Alleen je moet wel verdomd goed onderbouwen waarom jij denkt dat dit geen biasen gaat opleveren. Want als je bijv. 50% van je missing values verkeerd zou invullen (met behulp van mean imputatie), dan krijg jij straks waarschijnlijk andere resultaten.
Ik ben benieuwt wat crossover zijn advies is
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |