abonnement Unibet Coolblue Bitvavo
  maandag 7 maart 2016 @ 12:10:29 #52
85514 ralfie
!Yvan eht nioj
pi_160486014
quote:
0s.gif Op maandag 7 maart 2016 11:55 schreef truedestiny het volgende:

[..]

Het is een meningsinventarisatie. Ik wil graag uit de resultaten halen wat de meest voorkomende redenen zijn om een actie niet te ondernemen.
Kijk, als je alleen wil weten hoe vaak optie 1-11 gebruikt zijn, heb je 11 variabelen nodig.
Als je ook nog eens wil kijken naar combinaties (bijv 1+3+7) moet je deze ook apart analyseren. Dit kan allemaal alleen in één variabele als je je resultaten wil reduceren tot één antwoord (bijv vrouwen tikken vaker hogere opties aan dan mannen).

Praktisch alle statistische pakketten hebben overigens methoden om automatisch dummy variabelen te maken wanneer je dit soort vragen als nominaal markeert.
pi_160486073
quote:
7s.gif Op maandag 7 maart 2016 11:24 schreef truedestiny het volgende:
Ik ben nu bezig met een codeboek schrijven van een bestaande enquête. Hierin zit een vraag waarin de respondent er maximaal drie mag aankruisen(van de 11). Betekent dit dat ik 11 variabelen moet maken of is er een eenvoudigere manier beschikbaar?
Kan Qualtrics dit niet voor je doen?
pi_160486620
quote:
0s.gif Op maandag 7 maart 2016 12:10 schreef ralfie het volgende:

[..]

Kijk, als je alleen wil weten hoe vaak optie 1-11 gebruikt zijn, heb je 11 variabelen nodig.
Als je ook nog eens wil kijken naar combinaties (bijv 1+3+7) moet je deze ook apart analyseren. Dit kan allemaal alleen in één variabele als je je resultaten wil reduceren tot één antwoord (bijv vrouwen tikken vaker hogere opties aan dan mannen).

Praktisch alle statistische pakketten hebben overigens methoden om automatisch dummy variabelen te maken wanneer je dit soort vragen als nominaal markeert.
Thanks!
quote:
0s.gif Op maandag 7 maart 2016 12:13 schreef MCH het volgende:

[..]

Kan Qualtrics dit niet voor je doen?
Niet bekend mee. Ik zal eens kijken
pi_160487233
quote:
7s.gif Op maandag 7 maart 2016 11:24 schreef truedestiny het volgende:
Ik ben nu bezig met een codeboek schrijven van een bestaande enquête. Hierin zit een vraag waarin de respondent er maximaal drie mag aankruisen(van de 11). Betekent dit dat ik 11 variabelen moet maken of is er een eenvoudigere manier beschikbaar?
Zoals anderen zeggen, ligt er een beetje aan wat je wil analyseren etc.
Als het geprinte vragenlijsten zijn en iemand moet ze invoeren in de computer, dan lijkt het me handiger om 3 variabelen (keuze 1, 2 3) aan te maken met 11 opties, dan 11 variabelen met ja/nee. Dat maakt het invoeren een stuk makkelijker.
pi_160619579
Vraag! *O*

Ik heb drie testen die ik analyseer, allemaal gemaakt door dezelfde groep personen, en ik wil onderzoeken of er verschil te vinden is tussen twee subgroepen van mijn totale groep proefpersonen. Verdeling is ruwweg 85/15. Nu heb ik daarvoor drie K-S testen uitgevoerd. Geen enkele nulhypothese verworpen, maar voor de test A die ik vooraf al op het oog had wel een p van ~0.11 (ik test tweezijdig en mijn cutoff is op 0.05). Nu is dit ook de enige test waarvoor groep X beter scoort dan groep Y. Op de andere twee tests B&C scoort groep Y beter dan X (p 0.33 en 0.49 oid). Nou kan ik er zo al meer dan zat over vertellen natuurlijk, maar het zou wel leuk zijn om daar nog wat verder in te duiken.

Mijn vraag: is er een manier om die drie analyses te combineren en de richting van het verschil tussen groepen mee te nemen? Ik zat oorspronkelijk te denken aan het vergelijken van rangscores (als iedereen uit X op zichzelf een hogere rangscore heeft in test A dan de hoogste van B,C, is daar in ieder geval consistentie van richting van een effect mee aangetoond). Iemand nog een beter idee? :)

Noot: ik gebruik R
Your opinion of me is none of my business.
pi_160647438
quote:
0s.gif Op zaterdag 12 maart 2016 20:15 schreef Sarasi het volgende:
Op de andere twee tests B&C scoort groep Y beter dan X (p 0.33 en 0.49 oid). Nou kan ik er zo al meer dan zat over vertellen natuurlijk,
Hier kun je niet zat over vertellen natuurlijk. Het ene niet significante resultaat is niet beter dan het andere n.s. resultaat.
pi_160649947
quote:
0s.gif Op zondag 13 maart 2016 21:25 schreef MCH het volgende:

[..]

Hier kun je niet zat over vertellen natuurlijk. Het ene niet significante resultaat is niet beter dan het andere n.s. resultaat.
Je kunt wat zeggen over de richting van een effect, over de resultaten in relatie tot de verwachting, over de betrouwbaarheidsintervallen, over de effectgrootte... Er is zat te vertellen zonder significante resultaten. :')
Your opinion of me is none of my business.
pi_160649996
quote:
1s.gif Op zondag 13 maart 2016 22:30 schreef Sarasi het volgende:

[..]

Je kunt wat zeggen over de richting van een effect, over de resultaten in relatie tot de verwachting, over de betrouwbaarheidsintervallen, over de effectgrootte... Er is zat te vertellen zonder significante resultaten. :')
Allemaal nee, want het is niet significant. Je zou hooguit een verklaring kunnen verzinnen, eigenlijk moeten geven waarom jouw data niet significant is.

[ Bericht 0% gewijzigd door #ANONIEM op 13-03-2016 22:32:22 ]
pi_160650229
quote:
0s.gif Op zondag 13 maart 2016 22:31 schreef MCH het volgende:

[..]

Allemaal nee, want het is niet significant. Je zou hooguit een verklaring kunnen verzinnen, eigenlijk moeten geven waarom jouw data niet significant is.
Het effect is er nog steeds hoor, ook al is het niet significant. Het effect heeft een richting, een effectgrootte, je kunt voor verschillende verdelingen een betrouwbaarheidsinterval opstellen en dat bekijken... Geen significant resultaat betekent niet dat je alles net zo goed de prullenbak in kunt flikkeren. Het betekent alleen dat je de nulhypothese niet mag verwerpen, niet dat je de alternatieve hypothese MOET verwerpen.
Your opinion of me is none of my business.
pi_160650587
quote:
1s.gif Op zondag 13 maart 2016 22:37 schreef Sarasi het volgende:

[..]

Het effect is er nog steeds hoor, ook al is het niet significant. Het effect heeft een richting, een effectgrootte, je kunt voor verschillende verdelingen een betrouwbaarheidsinterval opstellen en dat bekijken... Geen significant resultaat betekent niet dat je alles net zo goed de prullenbak in kunt flikkeren. Het betekent alleen dat je de nulhypothese niet mag verwerpen, niet dat je de alternatieve hypothese MOET verwerpen.
Ja, dan zeg je zoiets van: although the result is in the expected direction, it is not significant. En dan stop je. Zo lees ik dat altijd in artikelen of jij niet? Achja, scripties met niet significante resultaten zijn meer regel dan uitzondering.
pi_160650783
quote:
0s.gif Op zondag 13 maart 2016 22:48 schreef MCH het volgende:

[..]

Ja, dan zeg je zoiets van: although the result is in the expected direction, it is not significant. En dan stop je. Zo lees ik dat altijd in artikelen of jij niet? Achja, scripties met niet significante resultaten zijn meer regel dan uitzondering.
En hopelijk vertaal je dat dan naar implicaties voor vervolgonderzoek etc ja. Dat zijn nog steeds meer woorden dan als je wel een significant resultaat had. Maar concluderend heb je dus geen antwoord op mijn vraag?
Your opinion of me is none of my business.
  zondag 13 maart 2016 @ 22:55:00 #63
219590 oompaloompa
doompadeedee
pi_160650828
quote:
1s.gif Op zondag 13 maart 2016 22:37 schreef Sarasi het volgende:

[..]

Het effect is er nog steeds hoor, ook al is het niet significant. Het effect heeft een richting, een effectgrootte, je kunt voor verschillende verdelingen een betrouwbaarheidsinterval opstellen en dat bekijken... Geen significant resultaat betekent niet dat je alles net zo goed de prullenbak in kunt flikkeren. Het betekent alleen dat je de nulhypothese niet mag verwerpen, niet dat je de alternatieve hypothese MOET verwerpen.
Een p van .5 is vrijwel de minst inzichtelijke uitkomst die je kunt hebben. Als de H0 waar is, heb je een kans van 50-50 om zo'n verschil of een groter verschil te vinden.

Al,s het within is, kun je (zou je) een repeated measures test kunnen doen.

Sowieso met een n van 15 wordt het moeilijk iets significants te vinden.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160651060
quote:
0s.gif Op zondag 13 maart 2016 22:55 schreef oompaloompa het volgende:

[..]

Een p van .5 is vrijwel de minst inzichtelijke uitkomst die je kunt hebben. Als de H0 waar is, heb je een kans van 50-50 om zo'n verschil of een groter verschil te vinden.

Al,s het within is, kun je (zou je) een repeated measures test kunnen doen.

Sowieso met een n van 15 wordt het moeilijk iets significants te vinden.

Oh nee dat begrijp je verkeerd. De n is 850 ofzo, 15/85 is de verdeling van de twee groepen. En ik heb dus bij de meest interessante test een p van 0.11, dat vind ik nog niet zo oninteressant. :) Maar het is geen repeated measures want het zijn alle drie afzonderlijke testen met eigen items die iets heel anders meten. :P Thanks voor het idee wel!
Your opinion of me is none of my business.
  zondag 13 maart 2016 @ 23:06:21 #65
219590 oompaloompa
doompadeedee
pi_160651151
quote:
1s.gif Op zondag 13 maart 2016 23:02 schreef Sarasi het volgende:

[..]

Oh nee dat begrijp je verkeerd. De n is 850 ofzo, 15/85 is de verdeling van de twee groepen. En ik heb dus bij de meest interessante test een p van 0.11, dat vind ik nog niet zo oninteressant. :) Maar het is geen repeated measures want het zijn alle drie afzonderlijke testen met eigen items die iets heel anders meten. :P Thanks voor het idee wel!
De drie testen zijn niet per persoon?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160651180
quote:
0s.gif Op zondag 13 maart 2016 23:06 schreef oompaloompa het volgende:

[..]

De drie testen zijn niet per persoon?
Dat wel, maar niet op verschillende tijdstippen afgenomen en ze meten alle drie iets heel anders. Gewoon een testbatterij, zeg maar.
Your opinion of me is none of my business.
  zondag 13 maart 2016 @ 23:12:53 #67
219590 oompaloompa
doompadeedee
pi_160651324
quote:
1s.gif Op zondag 13 maart 2016 23:07 schreef Sarasi het volgende:

[..]

Dat wel, maar niet op verschillende tijdstippen afgenomen en ze meten alle drie iets heel anders. Gewoon een testbatterij, zeg maar.
Dan ben ik bang dat je er niet heel erg veel mee kunt doen
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160653239
En je snapt 0.11 niet.. Je kunt niet zeggen ik zet mn cut off op 0.05 en mn uitkomst was 0.11 maar vind ik wel wat.

Nee, als je voor 0.05 kiest dan betekent dat je alles hoger dan dat als GEEN resultaat ziet. Dus 0.11 is zoals eerder gezegd, niks. Je kunt zoals ook al eerder gezegd, een richting aan geven maar dat houdt dus op bij 'maar dit was enkel bij deze studie en het resultaat bij andere studies kan anders zijn, want het resultaat was niet significant'.
Baby darling doll face honey
pi_160653290
quote:
10s.gif Op maandag 14 maart 2016 01:42 schreef Crack_ het volgende:
En je snapt 0.11 niet.. Je kunt niet zeggen ik zet mn cut off op 0.05 en mn uitkomst was 0.11 maar vind ik wel wat.

Nee, als je voor 0.05 kiest dan betekent dat je alles hoger dan dat als GEEN resultaat ziet. Dus 0.11 is zoals eerder gezegd, niks. Je kunt zoals ook al eerder gezegd, een richting aan geven maar dat houdt dus op bij 'maar dit was enkel bij deze studie en het resultaat bij andere studies kan anders zijn, want het resultaat was niet significant'.
Ik snap het prima. Het betekent dat er een kans is van 11% dat ik mijn huidige resultaten vindt onder de assumptie van de nulhypothese. Omdat ik mijn cutoff op 5% heb gezet, heb ik a priori besloten dat 11% dus niet voldoende bewijs is om de alternatieve hypothese aan te nemen en de nulhypothese te verwerpen. Dat betekent, nogmaals, niet dat ik bij een p van 11% de nulhypothese aanneem. Je kunt nooit iets bevestigen, alleen ontkrachten. Ik test de nulhypothese, dus die kan ik niet bevestigen. Bij een significant resultaat kan het resultaat bij een volgende studie net zo goed anders zijn, want de p waarde differentieert niet tussen een echt bewijs voor de alternatieve hypothese in de populatie en gewoon een zeer onwaarschijnlijke steekproef. Sorry dat ik geen significantiefapper ben. :')

Verder boeit deze test niet eens zo heel veel want het is maar een zijweggetje van mijn tweede hoofdvraag. Ik vroeg me alleen af of ik, gezien de richting van de ene test de andere kant op gaat, de rangscores nog op een andere manier tegen elkaar uit kon zetten.
Your opinion of me is none of my business.
pi_160653446
quote:
1s.gif Op maandag 14 maart 2016 01:55 schreef Sarasi het volgende:

[..]

Ik snap het prima. Het betekent dat er een kans is van 11% dat ik mijn huidige resultaten vindt onder de assumptie van de nulhypothese. Omdat ik mijn cutoff op 5% heb gezet, heb ik a priori besloten dat 11% dus niet voldoende bewijs is om de alternatieve hypothese aan te nemen en de nulhypothese te verwerpen. Dat betekent, nogmaals, niet dat ik bij een p van 11% de nulhypothese aanneem. Je kunt nooit iets bevestigen, alleen ontkrachten. Ik test de nulhypothese, dus die kan ik niet bevestigen. Bij een significant resultaat kan het resultaat bij een volgende studie net zo goed anders zijn, want de p waarde differentieert niet tussen een echt bewijs voor de alternatieve hypothese in de populatie en gewoon een zeer onwaarschijnlijke steekproef. Sorry dat ik geen significantiefapper ben. :')

Verder boeit deze test niet eens zo heel veel want het is maar een zijweggetje van mijn tweede hoofdvraag. Ik vroeg me alleen af of ik, gezien de richting van de ene test de andere kant op gaat, de rangscores nog op een andere manier tegen elkaar uit kon zetten.
Mooi, en sorry dat ik dat wel ben _O- :')

Verder kan ik je helaas niet helpen, succes nog verder. Hopelijk kun je er nog iets mee.
Baby darling doll face honey
pi_160655162
Plaat voor de kop |:(
pi_160657354
Zijn waarden van snijpunten tussen groepen te toetsen? Dus bij de ene groep is het snijpunt 2,53 en bij de andere groep 2,89. Is dit verschil significant? Ik kan er geen toets bij bedenken.
Aldus.
pi_160663195
quote:
1s.gif Op maandag 14 maart 2016 01:55 schreef Sarasi het volgende:

[..]

Omdat ik mijn cutoff op 5% heb gezet, heb ik a priori besloten dat 11% dus niet voldoende bewijs is om de alternatieve hypothese aan te nemen en de nulhypothese te verwerpen.

[..]

Sorry dat ik geen significantiefapper ben. :')

[..]

En ik heb dus bij de meest interessante test een p van 0.11, dat vind ik nog niet zo oninteressant. :)
dan heb je dus geen verschil op je meest interessante test. aangezien de cutoff op .05 zit

een p van .0500000001 was ook niet significant geweest.
Heb je nagedacht waarom die .05 gekozen wordt? en niet bijvoorbeeld .01?
Als je bepaalt dat de cutoff ergens is, kan je niet achteraf de regels nog aanpassen! waarom onderzoek doen als je je niet aan je eigen regels houdt?
pi_160663297
Surely god loves the .06 nearly as much as the .05
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160663316
quote:
2s.gif Op maandag 14 maart 2016 12:16 schreef Z het volgende:
Zijn waarden van snijpunten tussen groepen te toetsen? Dus bij de ene groep is het snijpunt 2,53 en bij de andere groep 2,89. Is dit verschil significant? Ik kan er geen toets bij bedenken.
Kun je iets meer uitleg geven? Snijpunt van wat met wat? Zou iig te toetsen moeten zijn.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
  † In Memoriam † maandag 14 maart 2016 @ 17:50:30 #76
230491 Zith
pls tip
pi_160664139
quote:
0s.gif Op maandag 14 maart 2016 17:05 schreef Silverdigger2 het volgende:

[..]

Als je bepaalt dat de cutoff ergens is, kan je niet achteraf de regels nog aanpassen! waarom onderzoek doen als je je niet aan je eigen regels houdt?
Dat kan prima. er moet immers ook brood op de plank komen. Zolang hij geen cijfers gaat vervalsen mogen anderen er van vinden wat ze willen (ie. geen hoge significantie, maar een knipoog naar een bepaalde richting).

Niemand zal hem serieus nemen als hij zegt dat 0.11 significant is, maar het is prima wetenschap om resultaten te laten zien met 0.11 p-values en aan te geven dat het niet significant is maar dat het eventueel in een bepaalde richting kan wijzen.

[ Bericht 8% gewijzigd door Zith op 14-03-2016 17:56:43 ]
I am a Chinese college students, I have a loving father, but I can not help him, he needs to do heart bypass surgery, I can not help him, because the cost of 100,000 or so needed, please help me, lifelong You pray Thank you!
pi_160664587
quote:
0s.gif Op maandag 14 maart 2016 17:50 schreef Zith het volgende:

[..]

Dat kan prima. er moet immers ook brood op de plank komen. Zolang hij geen cijfers gaat vervalsen mogen anderen er van vinden wat ze willen (ie. geen hoge significantie, maar een knipoog naar een bepaalde richting).

Niemand zal hem serieus nemen als hij zegt dat 0.11 significant is, maar het is prima wetenschap om resultaten te laten zien met 0.11 p-values en aan te geven dat het niet significant is maar dat het eventueel in een bepaalde richting kan wijzen.
Zij, maar verder ongeveer dit ja. Ik ga echt niet zeggen dat het bijna significant is, helemaal significant, whatever. Maar als een resultaat niet significant is, kan het nog steeds wel interessant zijn. Als je een bepaald effect verwacht en je krijgt een p van 0.98 is dat ook ontiegelijk interessant. En dat een verschil niet significant is, betekent niet dat er helemaal geen verschil (in de steekproef) is. Of is een gemiddelde van 23 opeens gelijk aan een gemiddelde van 28 omdat de p waarde niet onder de Alpha zit?
Your opinion of me is none of my business.
pi_160667110
quote:
1s.gif Op maandag 14 maart 2016 18:09 schreef Sarasi het volgende:

[..]

Zij, maar verder ongeveer dit ja. Ik ga echt niet zeggen dat het bijna significant is, helemaal significant, whatever. Maar als een resultaat niet significant is, kan het nog steeds wel interessant zijn. Als je een bepaald effect verwacht en je krijgt een p van 0.98 is dat ook ontiegelijk interessant. En dat een verschil niet significant is, betekent niet dat er helemaal geen verschil (in de steekproef) is. Of is een gemiddelde van 23 opeens gelijk aan een gemiddelde van 28 omdat de p waarde niet onder de Alpha zit?
Je kan alleen eigenlijk niets zeggen over of dat verschil ruis is of niet.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160669224
quote:
1s.gif Op maandag 14 maart 2016 18:09 schreef Sarasi het volgende:
Of is een gemiddelde van 23 opeens gelijk aan een gemiddelde van 28 omdat de p waarde niet onder de Alpha zit?
er is geen bewijs dat het verschil verklaard kan worden door de in jouw model opgenomen variabelen, dat kan je er zeker over zeggen als de gemiddelden van de groepen die je in jouw test vergeleek 23 en 28 zijn.

quote:
0s.gif Op maandag 14 maart 2016 17:50 schreef Zith het volgende:

[..]

Niemand zal hem serieus nemen als hij zegt dat 0.11 significant is, maar het is prima wetenschap om resultaten te laten zien met 0.11 p-values en aan te geven dat het niet significant is maar dat het eventueel in een bepaalde richting kan wijzen.
Dit kan zeker, maar de tendens had je ook kunnen baseren op eerder onderzoek.
"en je probeert dit goed te praten onder een confirmation bias."

Als je zegt dat je tevreden bent met een p<.05 dan is bij een p>.05 je 0-hypothese niet verworpen.

quote:
Dat kan prima. er moet immers ook brood op de plank komen.
Een niet significant verschil is ook een significante bijdrage aan de wetenschap
pi_160669851
Wat moet ik doen als ik bij mijn chi-square teveel cellen heb met een expected count less than five? Ik las dat bij meer dan 20% de resultaten niet valide zijn? Bij sommige variabelen is het bij mij 60%.
pi_160670130
quote:
5s.gif Op maandag 14 maart 2016 21:11 schreef carmiie het volgende:
Wat moet ik doen als ik bij mijn chi-square teveel cellen heb met een expected count less than five? Ik las dat bij meer dan 20% de resultaten niet valide zijn? Bij sommige variabelen is het bij mij 60%.
Cellen samenvoegen als dat kan, anders houdt het op.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160670543
quote:
0s.gif Op maandag 14 maart 2016 21:21 schreef oompaloompa het volgende:

[..]

Cellen samenvoegen als dat kan, anders houdt het op.
Hoe doe ik dat? :o
pi_160671011
quote:
0s.gif Op maandag 14 maart 2016 21:33 schreef carmiie het volgende:

[..]

Hoe doe ik dat? :o
Als je bv geinteresseerd bent in verschil man-vrouw en schrijfkleur rood-blauw op een bepaalde uitkomst, je test beperken tot verschil kleur (of verschil gender).
Verder valt er helaas weinig te doen. (nou lijkt het me ook dat of dezelfde rij erg laag is in je experiment dus 98% - 2% voor groep 1 en 97% - 3% voor groep 2, en dan kun je zelfs zonder test wel zien dat er geen effect is, of juist het tegenovergestelde 99-1 voor groep 1 en 1-99 voor groep 2 en dan heb je eigenlijk ook niet echt een test meer nodig).
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160671406
quote:
0s.gif Op maandag 14 maart 2016 21:44 schreef oompaloompa het volgende:

[..]

Als je bv geinteresseerd bent in verschil man-vrouw en schrijfkleur rood-blauw op een bepaalde uitkomst, je test beperken tot verschil kleur (of verschil gender).
Verder valt er helaas weinig te doen. (nou lijkt het me ook dat of dezelfde rij erg laag is in je experiment dus 98% - 2% voor groep 1 en 97% - 3% voor groep 2, en dan kun je zelfs zonder test wel zien dat er geen effect is, of juist het tegenovergestelde 99-1 voor groep 1 en 1-99 voor groep 2 en dan heb je eigenlijk ook niet echt een test meer nodig).
Aahh zo, ik snap het, thanks! :) Wel jammer dat er weinig aan te doen valt ;(
pi_160671579
quote:
0s.gif Op maandag 14 maart 2016 21:53 schreef carmiie het volgende:

[..]

Aahh zo, ik snap het, thanks! :) Wel jammer dat er weinig aan te doen valt ;(
Bijdraaien? :p
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_160678491
quote:
0s.gif Op maandag 14 maart 2016 17:11 schreef oompaloompa het volgende:

[..]

Kun je iets meer uitleg geven? Snijpunt van wat met wat? Zou iig te toetsen moeten zijn.
Ik heb een prijsmeter-analyse gedaan voor verschillende versies van producten.



De snijpunten, prijs in euro's, wil ik toetsen.
Aldus.
pi_160679847
quote:
5s.gif Op maandag 14 maart 2016 21:11 schreef carmiie het volgende:
Wat moet ik doen als ik bij mijn chi-square teveel cellen heb met een expected count less than five? Ik las dat bij meer dan 20% de resultaten niet valide zijn? Bij sommige variabelen is het bij mij 60%.
Meer data verzamelen.
pi_160829972
Ik ben een dataset aan het maken met SPSS. Niet super moeilijk, maar ik loop echter tegen één probleem aan. Het gaat hier om een patiëntenbestand met verschillende parameters. Deze patiënten hebben een bepaalde operatie ondergaan en sommige patiënten hebben hier naderhand complicaties van ondervonden. Ik heb echter de grootste moeite om deze complicaties op een efficiëntie manier in SPSS te zetten. Sommige patiënten hebben namelijk meerdere complicaties gehad.

Ik heb de volgende dingen al geprobeerd:
1) Één variabele Complicaties aanmaken, alle verschillende complicaties labelen. Dit werkt dus niet omdat sommige patiënten bijv. zowel een fistel als een abces kunnen hebben. Ik kan complicaties combineren onder één label (0 = fistel, 1 = abces, 2 = fistel en abces bijv.), maar dan krijg ik dubbel zoveel labels als dat ik complicaties heb en dat gaat echt een gigantische lijst worden.
2) Voor elke complicatie een variabele aanmaken. Dit werkt op zich wel, maar ik heb nu al 17 complicaties in mijn dataset staan (er staan nu 25 patiënten in, het worden er waarschijnlijk honderden). Ik verwacht dat dit aantal nog enigszins zal groeien. Er moet toch een andere manier zijn om te voorkomen dat ik met een monster van een dataset eindig, haha.
3) Complicaties groeperen binnen variabelen. Ik heb eerst geprobeerd om te groeperen naar een variabele maag-darmkanaal complicaties, cardiale complicaties, pulmonale complicaties en etc. Echter, zoals ik hierboven al heb beschreven, sommige mensen hebben bijv. zowel een fistel als een abces (beide maag-darmkanaal complicaties), ik loop op deze manier weer tegen probleem 1 aan. Vervolgens heb ik 4 variabelen aangemaakt, Complicaties 1 t/m 4 met allemaal dezelfde labels. Dit werkt niet, als ik een statistische analyse wil doen dan krijg ik vier verschillende tabellen met dezelfde complicaties in groepjes verspreid over al deze tabellen. Dit is prima voor frequenties, maar niet als ik er meer geavanceerde dingen mee wil doen.

Kortom, is er een manier om deze complicaties op een efficiënte manier in SPSS te krijgen of moet ik toch echt losse variabelen maken?
pi_160830177
Wat is het maximale aantal complicaties bij een patiënt? Stel dat dat er 10 zijn, dan maak je tien variabelen aan met alle complicaties per variabele zoals je bij (1) gedaan hebt. De vorm die je kiest hangt mogelijk samen met de analyses die je wil doen, iets om rekening mee te houden.
Aldus.
pi_160830857
Ik zat te denken aan logistic regression en ik heb n.a.v. jouw post zojuist het halve internet ondersteboven gekeerd en ik kom er dus achter dat je a) één dependent variable kunt aangeven, b) deze variable maar twee catagorieën kan hebben, wat dus waarschijnlijk betekent dat ik mijn complicaties als losse variabelen in SPSS moet zetten wil ik er wat mee kunnen, haha. Dus volgens mij ben ik er zo wel uit.
pi_160831917
Je kan, ten behoeve van de logistische regressie, categoriale variabelen hercoderen naar dummies. Dat kan SPSS automatisch geloof ik. Tip: lees je ook nog even in over vrijheidsgraden.
Aldus.
pi_160832847
quote:
0s.gif Op maandag 21 maart 2016 11:56 schreef Paprikachipjes het volgende:
Ik zat te denken aan logistic regression en ik heb n.a.v. jouw post zojuist het halve internet ondersteboven gekeerd en ik kom er dus achter dat je a) één dependent variable kunt aangeven, b) deze variable maar twee catagorieën kan hebben, wat dus waarschijnlijk betekent dat ik mijn complicaties als losse variabelen in SPSS moet zetten wil ik er wat mee kunnen, haha. Dus volgens mij ben ik er zo wel uit.
Het is mij niet helemaal duidelijk wat nou precies je dependent variabele moet worden. Kun je dat nog eens toelichten?

[ Bericht 24% gewijzigd door #ANONIEM op 21-03-2016 22:10:40 ]
pi_160834157
De complicaties worden de dependent variables. Dus wat ik zou kunnen doen is kijken wat de invloed is van bijv. roken op het ontwikkelen van een abces postoperatief (= complicatie). Roken zou dan mijn independent variable worden (0 = nooit, 1 = ja, 2 = gestopt), het ontwikkelen van een abces mijn dependent variable (0 = nee, 1 = ja).

Dat hercoderen ziet er inderdaad wel interessant uit. Ik zal me er eens in verdiepen.
pi_160842562
Ik heb een dataset met een aantal dummy variabelen (STATA) en ik vraag mij af hoe je uit een regressie output kunt afleiden of het handig is om bepaalde dummy variabelen met elkaar te combineren. En als er dummy variabelen gecombineerd worden welke restricties er getest moeten worden. Weet iemand dit toevallig? Wat betreft het testen van restricties dacht ik aan een joint restrictie.. maar ik kan het fout hebben.

Alvast bedankt. :)
pi_160846223
quote:
0s.gif Op maandag 21 maart 2016 14:48 schreef Paprikachipjes het volgende:
De complicaties worden de dependent variables. Dus wat ik zou kunnen doen is kijken wat de invloed is van bijv. roken op het ontwikkelen van een abces postoperatief (= complicatie). Roken zou dan mijn independent variable worden (0 = nooit, 1 = ja, 2 = gestopt), het ontwikkelen van een abces mijn dependent variable (0 = nee, 1 = ja).

Dat hercoderen ziet er inderdaad wel interessant uit. Ik zal me er eens in verdiepen.
Wow, dan krijg je dus een ontelbare hoeveelheid dv's als je een lange lijst met complicaties hebt. Ik weet niet of het relevant is maar je zou ook nog een Poisson regression kunnen uitvoeren om te kijken welke factoren een invloed hebben op het aantal bijwerkingen dat iemand krijgt.
pi_161133531
Weet iemand hoe ik een bepaalde excel data file het beste in eviews kan importeren?

Ik heb op de y-as de verschillende identifiers (in mijn geval bedrijven) en op de x-as de datum (in mijn geval een periode van ongeveer 300 dagen) en voor de rest een variabele per worksheet (6 variabelen en dus 6 worksheets totaal). Normaal moet je bij eviews (volgensmij) op de y-as zowel de datum als de identifiers zetten om het correct te kunnen importeren, maar in mijn geval was het niet mogelijk het op deze manier te downloaden en dan zou het bovendien redelijk onleesbaar worden vanwege het grote aantal datums en bedrijven.

Als iemand me een linkje kunnen sturen die ongeveer beschrijft hoe ik dit het beste kan aanpakken zou ik dit ook erg op prijs stellen uiteraard! Volgensmij betreft mijn dataset 'unstacked panel data', maar dat weet ik niet zeker. Heb uiteraard al op google gezocht maar vind geen relevante resultaten.

Bij voorbaat dank!
pi_161282001
Ik ga voor mijn scriptie kijken naar het volgende onderwerp:
Scoren leerlingen die op een basisschool 8 jaar Frans hebben gehad beter op Frans in de 1e klas dan leerlingen die de taal niet hebben gehad, rekening houdend met de algemene cognitie?
Er zijn 5 leerlingen die Frans hebben gehad in verschillende klassen. Van alle leerlingen uit deze klassen heb ik het gemiddelde van Frans en van Nederlands, geschiedenis en wiskunde (voor de algemene cognitie) om te kunnen vergelijken.
Ik dacht dat ik een independent t-test moest doen, maar dan kan ik niet controleren op algemene cognitie. En ik kan toch niet zomaar de gegevens van alle klassen samenvoegen zonder te kijken naar het gemiddelde van elke specifieke klas?
Wie kan mij helpen?
pi_161282174
quote:
0s.gif Op zaterdag 2 april 2016 23:32 schreef ulq het volgende:
Weet iemand hoe ik een bepaalde excel data file het beste in eviews kan importeren?

Ik heb op de y-as de verschillende identifiers (in mijn geval bedrijven) en op de x-as de datum (in mijn geval een periode van ongeveer 300 dagen) en voor de rest een variabele per worksheet (6 variabelen en dus 6 worksheets totaal). Normaal moet je bij eviews (volgensmij) op de y-as zowel de datum als de identifiers zetten om het correct te kunnen importeren, maar in mijn geval was het niet mogelijk het op deze manier te downloaden en dan zou het bovendien redelijk onleesbaar worden vanwege het grote aantal datums en bedrijven.

Als iemand me een linkje kunnen sturen die ongeveer beschrijft hoe ik dit het beste kan aanpakken zou ik dit ook erg op prijs stellen uiteraard! Volgensmij betreft mijn dataset 'unstacked panel data', maar dat weet ik niet zeker. Heb uiteraard al op google gezocht maar vind geen relevante resultaten.

Bij voorbaat dank!
Omdat het zo lomp is als niemand op je vraag reageert: Sorry, ik had voor je post nog nooit van eviews gehoord, dus geen flauw idee hoe je daar kunt importeren. Misschien eens kijken naar of er online wat te vinden is over .csv bestanden importeren? (Je kunt een Excel bestand heel makkelijk opslaan als .csv en soms geeft dat wat meer opties.)
pi_161282225
quote:
0s.gif Op vrijdag 8 april 2016 16:31 schreef jufsaar het volgende:
Ik ga voor mijn scriptie kijken naar het volgende onderwerp:
Scoren leerlingen die op een basisschool 8 jaar Frans hebben gehad beter op Frans in de 1e klas dan leerlingen die de taal niet hebben gehad, rekening houdend met de algemene cognitie?
Er zijn 5 leerlingen die Frans hebben gehad in verschillende klassen. Van alle leerlingen uit deze klassen heb ik het gemiddelde van Frans en van Nederlands, geschiedenis en wiskunde (voor de algemene cognitie) om te kunnen vergelijken.
Ik dacht dat ik een independent t-test moest doen, maar dan kan ik niet controleren op algemene cognitie. En ik kan toch niet zomaar de gegevens van alle klassen samenvoegen zonder te kijken naar het gemiddelde van elke specifieke klas?
Wie kan mij helpen?
Dus als ik het goed begrijp heb je twee groepen:
1. 5 leerlingen die Frans hebben gehad.
2. Gruwelijke veel leerlingen (meerdere klassen) die geen Frans hebben gehad.

Klopt dat?

In dat geval is je grootste probleem dat je slechts 5 leerlingen hebt die Frans hebben gehad. Die groep is te klein om iets zinvols over te kunnen zeggen.

Als je de klas waartoe iemand behoort wil analyseren dan kom je al snel uit op multilevel analyses, maar ik zou me kunnen voorstellen dat, gezien de rest van je project, dat dermate hooggegrepen is dat je begeleider je dat niet aan wil doen.
  vrijdag 8 april 2016 @ 17:16:41 #100
219590 oompaloompa
doompadeedee
pi_161282813
Operc heeft gelijk, wat je wilt doen valt abstract / technisch te doen, maar niet met de data die je hebt.

Een simpelere, minder juiste versie valt ook niet echt te doen, maar kun je in ieder geval wel runnen (zou de resultaten alleen niet vertrouwen) en dat is gewoon opdelen in wel of niet frans als groepen. Andere scores meenemen als covariaat in Anova en dat gebruiken.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_161304079
Mensen, ik vul data in in STATA.

Heb nu twee variabelen gemaakt, maar als ik vervolgens "summarize" in tik dan geeft STATA aan dat er voor beide variabelen 0 observaties zijn terwijl ze er toch echt staan. Bijvoorbeeld de variabele "Year" aangemaakt en vervolgens staat daaronder (in de data editor) 1950 t/m 2010.

Dit is de eerste keer dat ik zelf data in het programma gooi. Wat kan ik verkeerd doen? Hulp is zeer welkom.
pi_161304202
quote:
0s.gif Op zaterdag 9 april 2016 15:15 schreef Kaas- het volgende:
Mensen, ik vul data in in STATA.

Heb nu twee variabelen gemaakt, maar als ik vervolgens "summarize" in tik dan geeft STATA aan dat er voor beide variabelen 0 observaties zijn terwijl ze er toch echt staan. Bijvoorbeeld de variabele "Year" aangemaakt en vervolgens staat daaronder (in de data editor) 1950 t/m 2010.

Dit is de eerste keer dat ik zelf data in het programma gooi. Wat kan ik verkeerd doen? Hulp is zeer welkom.
Ik gebruik geen STATA dus het is een wilde gok, maar zijn de variabelen nog hoofdlettergevoelig misschien? En is het type variabele juist? (Dat je niet stiekem string hebt terwijl het integer moet zijn.)
abonnement Unibet Coolblue Bitvavo
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')