abonnement Unibet Coolblue
pi_166720929
Heb er toevallig vorige week ook mee zitten klooien in excel, een stuk of 4 uur. Alleen ging het toen om correlatie. Toen alles uit pure ellende maar naar SPSS gekopieerd en binnen een kwartier resultaat. Dus dat zou ik je aanraden.
pi_166734129
quote:
7s.gif Op donderdag 17 november 2016 20:18 schreef Verpakkingen het volgende:
Hallo,

Voor mijn onderzoek ben ik bezig om gegevens te analyseren. Hiervoor wil ik graag weten of mijn resultaten significant zijn. Ik heb mijn resultaten nu overzichtelijk in Excel staan. Is het mogelijk om de significantie in Excel te berekenen?

Voorbeeld van mijn resultaten in een 'tabel':

A B G
2 1 0
1 0 1
1 0 0
2 2 0
2 1 1
2 0 0
2 1 0
2 2 1
2 0 1
0 2 0

A=Antwoord 1 (0=sterk, 1=voldoende/redelijk, 2=matig, 3=niet),
B=Antwoord 2 (0=Hoog, 1=Midden, 2=Laag),
G=Geslacht. (0=Man en 1=Vrouw)

Vervolgens wil ik bijvoorbeeld weten of mannen meer voorkeur hebben voor product A dan vrouwen. Hoe kan ik de significantie hiervoor berekenen? Moet ik hiervoor misschien de T-Toets gebruiken?

Alvast bedankt!
Ik zou hiervoor geen t-toets gebruiken maar de niet-parametrische versie daarvan (Wilcoxon rank toets). Dit omdat je 'uitkomstvariabele' (waardering voor product) geen continue maar een ordinale variabele is.

Je kan dan 2 Wilcoxon toetsen doen; één om te toetsen of mannen en vrouwen verschillen in hun waardering van product A en nog een om te toetsen of mannen en vrouwen verschillen in hun waardering van product B.

Ik zou het ook handig vinden om je uitkomstvariabelen te hercoderen zodat een hoger cijfer staat voor een hogere waardering, maar dat terzijde.
pi_166814270
Ik breek even in met een ontzettende noobvraag. Ik ben zo slecht in statistiek en het is ook alweer even geleden voor mij. Heb al van alles opgezocht maar ik kom er niet uit.

Ik heb de volgende tabel en moet daarbij dus de 95% CI en p-waarden berekenen.
Iemand enig idee hoe ik dit aan moet pakken?
Je zou me ontzettend helpen!!

But while the earth sinks to its grave
You sail to the sky on the crest of a wave
pi_166814774
quote:
0s.gif Op maandag 21 november 2016 22:42 schreef Njosnavelin het volgende:
Ik breek even in met een ontzettende noobvraag. Ik ben zo slecht in statistiek en het is ook alweer even geleden voor mij. Heb al van alles opgezocht maar ik kom er niet uit.

Ik heb de volgende tabel en moet daarbij dus de 95% CI en p-waarden berekenen.
Iemand enig idee hoe ik dit aan moet pakken?
Je zou me ontzettend helpen!!

[ afbeelding ]
http://www.measuringu.com/blog/ci-five-steps.php
pi_166814928
quote:
Dankje voor de link!
Alleen kom ik precies weer uit waar ik net ook zat: hoe kom ik bij een SD, als de 'mean' het verschil is tussen 2 means? (zie mijn tabel).
Dan kan ik toch geen SD berekenen?
But while the earth sinks to its grave
You sail to the sky on the crest of a wave
pi_166815100
quote:
5s.gif Op maandag 21 november 2016 23:00 schreef Njosnavelin het volgende:

[..]

Dankje voor de link!
Alleen kom ik precies weer uit waar ik net ook zat: hoe kom ik bij een SD, als de 'mean' het verschil is tussen 2 means? (zie mijn tabel).
Dan kan ik toch geen SD berekenen?
de SD is gegeven?
pi_166815285
quote:
0s.gif Op maandag 21 november 2016 23:05 schreef MCH het volgende:

[..]

de SD is gegeven?
Ja, maar in die 5e kolom, dat is het verschil tussen de means van A en B. En daar moet ik het CI van berekenen. Dan moet ik toch ook de SD hebben die bij het verschil (dus de mean uit kolom 5) hoort?
But while the earth sinks to its grave
You sail to the sky on the crest of a wave
pi_166815540
quote:
0s.gif Op maandag 21 november 2016 23:10 schreef Njosnavelin het volgende:

[..]

Ja, maar in die 5e kolom, dat is het verschil tussen de means van A en B. En daar moet ik het CI van berekenen. Dan moet ik toch ook de SD hebben die bij het verschil (dus de mean uit kolom 5) hoort?
http://onlinestatbook.com(...)dist_diff_means.html ?
pi_166815694
of dit http://stats.stackexchang(...)etween-two-data-sets

je vraag letterlijk googlen werkt :+
pi_166815778
quote:
Thanks! Alleen hebben ze het daar wel steeds over twee verschillende populaties, terwijl mijn subsets gewoon twee gerandomiseerde groepen zijn uit 1 populatie. Enig idee of ik daar dan een andere methode voor moet gebruiken?
But while the earth sinks to its grave
You sail to the sky on the crest of a wave
pi_166820703
Hierbij nog even weer een vraag.

Ik wil graag verschil en/of samenhang tussen verschillende variabelen toetsen.

De variabelen hebben de volgende schaal:
NominaalxNominaal
NominaalxOrdinaal
OrdinaalxOrdinaal.

Hiervoor wil ik graag de Chi-Kwadraattoets (Chi-square) gebruiken. Is dit de juiste toets voor al mijn variabelen (bestaande uit nominale of ordinale schaal)?

Hiervoor gebruik ik de volgende hypothesen:
H0: Er is in de populatie geen verband tussen de variabelen (vb. leeftijd en hoe vaak mensen internetaankopen doen).
H1: Er is in de populatie wel een verband tussen deze variabelen.

Graag hoor ik van jullie!! Alvast bedankt.
pi_166821151
quote:
0s.gif Op dinsdag 22 november 2016 10:45 schreef Verpakkingen het volgende:
Hierbij nog even weer een vraag.

Ik wil graag verschil en/of samenhang tussen verschillende variabelen toetsen.

De variabelen hebben de volgende schaal:
NominaalxNominaal
NominaalxOrdinaal
OrdinaalxOrdinaal.

Hiervoor wil ik graag de Chi-Kwadraattoets (Chi-square) gebruiken. Is dit de juiste toets voor al mijn variabelen (bestaande uit nominale of ordinale schaal)?

Hiervoor gebruik ik de volgende hypothesen:
H0: Er is in de populatie geen verband tussen de variabelen (vb. leeftijd en hoe vaak mensen internetaankopen doen).
H1: Er is in de populatie wel een verband tussen deze variabelen.

Graag hoor ik van jullie!! Alvast bedankt.
is dit huiswerk?
pi_166821529
quote:
0s.gif Op dinsdag 22 november 2016 11:14 schreef MCH het volgende:

[..]

is dit huiswerk?
Nee, ik wilde even checken of ik de juiste toets heb gebruikt.
Dus is de Chi-square de juiste toets hiervoor?
pi_166821535
quote:
0s.gif Op dinsdag 22 november 2016 11:36 schreef Verpakkingen het volgende:

[..]

Nee, ik wilde even checken of ik de juiste toets heb gebruikt.
Dus is de Chi-square de juiste toets hiervoor?
Kan
pi_166821556
En spearman's rank
pi_166827479
Hallo!

Ik ben bezig met een statistiekonderzoek voor mijn studie, maar weet niet hoe ik een bepaalde berekening uit moet voeren.

Het betreft een onderzoek waarbij twee variabelen negatief correleren. twee variabelen samen moeten gebruikt worden om te onderzoeken of ze samen verband houden met een andere variabele.

(A <--> B) <--> C

Heeft iemand een suggestie voor welke methode ik het beste kan gebruiken om te onderzoeken of er een relatie is tussen de negatief correlerende variabelen en de andere variabele? In eerste instantie dacht ik er zelf aan één van de twee als mediator te gebruiken, maar omdat niet gezegd kan worden welke van de twee dan een mediator zou zijn kan dit niet, de twee variabelen moeten als gelijk gezien worden (als ik mijn docent goed begrepen heb).

Alvast bedankt voor het meedenken!

[ Bericht 2% gewijzigd door ABZ op 22-11-2016 17:12:58 ]
pi_166827522
quote:
0s.gif Op dinsdag 22 november 2016 16:56 schreef ABZ het volgende:
Hallo!

Ik ben bezig met een statistiekonderzoek voor mijn studie, maar weet niet hoe ik een bepaalde berekening uit moet voeren.

Het betreft een onderzoek waarbij twee variabelen negatief correleren. twee variabelen samen moeten gebruikt worden om te onderzoeken of ze samen verband houden met een andere variabele.

Heeft iemand een suggestie voor welke methode ik het beste kan gebruiken om te onderzoeken of er een relatie is tussen de negatief correlerende variabelen en de andere variabele? In eerste instantie dacht ik er zelf aan één van de twee als mediator te gebruiken, maar omdat niet gezegd kan worden welke van de twee dan een mediator zou zijn kan dit niet, de twee variabelen moeten als gelijk gezien worden (als ik mijn docent goed begrepen heb).

Alvast bedankt voor het meedenken!
Lekker duidelijk verhaal weer Hans. ;(
pi_166830363
quote:
0s.gif Op dinsdag 22 november 2016 16:56 schreef ABZ het volgende:
Hallo!

Ik ben bezig met een statistiekonderzoek voor mijn studie, maar weet niet hoe ik een bepaalde berekening uit moet voeren.

Het betreft een onderzoek waarbij twee variabelen negatief correleren. twee variabelen samen moeten gebruikt worden om te onderzoeken of ze samen verband houden met een andere variabele.

(A <--> B) <--> C

Heeft iemand een suggestie voor welke methode ik het beste kan gebruiken om te onderzoeken of er een relatie is tussen de negatief correlerende variabelen en de andere variabele? In eerste instantie dacht ik er zelf aan één van de twee als mediator te gebruiken, maar omdat niet gezegd kan worden welke van de twee dan een mediator zou zijn kan dit niet, de twee variabelen moeten als gelijk gezien worden (als ik mijn docent goed begrepen heb).

Alvast bedankt voor het meedenken!
Hoezo 'of ze samen verband houden'? Ik weet niet of ik je goed begrijp maar ik zou een multipele lineaire regressie uitvoeren met A en B als onafhankelijke vars en C als afhankelijke var. Je kan eventueel een interactieterm toevoegen (A*B=AB toevoegen als onafhankelijke var). Daarnaast natuurlijk even kijken of de onderlinge correlatie tussen A en B niet te hoog is (ivm multicolineariteit).
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_167108440
Hey ppl,

Iemand die enig idee heeft hoe je in STATA groepen kunt aanmaken? Dus, bijvoorbeeld, twee groepen bestaande uit 10 variabelen per groep. Elk variabele heeft dan ook 20 observaties.
pi_167113059
quote:
0s.gif Op zondag 4 december 2016 23:18 schreef Super-B het volgende:
Hey ppl,

Iemand die enig idee heeft hoe je in STATA groepen kunt aanmaken? Dus, bijvoorbeeld, twee groepen bestaande uit 10 variabelen per groep. Elk variabele heeft dan ook 20 observaties.
Wat bedoel je precies met een groep? Wil je gewoon variabelen aanmaken? Dat kan (even uit m'n hoofd) met:
set obs 20
gen x = [waarde, bijvoorbeeld . of 1]
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_167113735
quote:
0s.gif Op maandag 5 december 2016 10:46 schreef crossover het volgende:

[..]

Wat bedoel je precies met een groep? Wil je gewoon variabelen aanmaken? Dat kan (even uit m'n hoofd) met:
set obs 20
gen x = [waarde, bijvoorbeeld . of 1]
Ik heb 20 variabelen met ieder 22 observaties. De bedoeling is om het gemiddelde te vergelijken tussen 10 vs 10 variabelen. Hiervoor is het doel om deze 20 variabelen te verdelen in twee groepen, zodat ik groep 1 met groep 2 kan vergelijken.

Sowieso moet ik een two sample independent T-test uitvoeren, maar je kan geen meerdere variabelen invoeren in STATA... Althans ik kan dat niet.
  † In Memoriam † maandag 5 december 2016 @ 12:10:46 #122
230491 Zith
pls tip
pi_167115121
extra variabele aanmaken (groep), geef die de waarde 0 als het bij groep 1 hoort, waarde 1 als het bij groep 2 hoort.
I am a Chinese college students, I have a loving father, but I can not help him, he needs to do heart bypass surgery, I can not help him, because the cost of 100,000 or so needed, please help me, lifelong You pray Thank you!
pi_167119202
quote:
0s.gif Op maandag 5 december 2016 12:10 schreef Zith het volgende:
extra variabele aanmaken (groep), geef die de waarde 0 als het bij groep 1 hoort, waarde 1 als het bij groep 2 hoort.
Hoe kan ik ze toewijzen de dummy-variabele? Er is niet zoiets als age/gender of iets in die richting waarbij ik een voorwaarde kan stellen.

Het zijn gewoon 20 variabelen naast elkaar in kolommen, met daaronder de observaties in rijen. Het is niet dat ik de variabelen kan toewijzen op basis van die observaties zoals ''als observatie < 1'' dan is dummy= 1 anders 0.

[ Bericht 11% gewijzigd door Super-B op 05-12-2016 15:10:48 ]
pi_167120401
quote:
0s.gif Op maandag 5 december 2016 15:04 schreef Super-B het volgende:

[..]

Hoe kan ik ze toewijzen de dummy-variabele? Er is niet zoiets als age/gender of iets in die richting waarbij ik een voorwaarde kan stellen.

Het zijn gewoon 20 variabelen naast elkaar in kolommen, met daaronder de observaties in rijen. Het is niet dat ik de variabelen kan toewijzen op basis van die observaties zoals ''als observatie < 1'' dan is dummy= 1 anders 0.

Wat heeft het dan voor zin om te vergelijken als je zelf de groepen gaat indelen op basis van willekeur?
Als je het toch echt willekeurig wil doen kan je een variabele genereren met de runiform() funtie, en dan vervolgens afronden naar 1 of 0 met de round functie.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_167120982
quote:
0s.gif Op maandag 5 december 2016 11:15 schreef Super-B het volgende:

[..]

Ik heb 20 variabelen met ieder 22 observaties. De bedoeling is om het gemiddelde te vergelijken tussen 10 vs 10 variabelen. Hiervoor is het doel om deze 20 variabelen te verdelen in twee groepen, zodat ik groep 1 met groep 2 kan vergelijken.

Sowieso moet ik een two sample independent T-test uitvoeren, maar je kan geen meerdere variabelen invoeren in STATA... Althans ik kan dat niet.

Begrijp ik goed dat je de gemiddelde score per observatie van variabele 1-10 met de gemiddelde score per observatie van variabele 11-21 wil vergelijken? In dat geval, nieuwe variabele aanmaken die het gemiddelde van variabele 1-10 heeft, datzelfde doen voor de variabelen 11-20 en dan een t-toets die die twee variabelen vergelijkt.
pi_167189734
Hoi kan iemand mij helpen met mijn vraag?

Het gaat namelijk om het volgende:
Ik heb een logistische regressie analyse uitgevoerd in SPSS. Nu geeft de goodness of fit test van hosmer and lemeshow een significant resultaat aan, wat betekent dat mijn data niet goed past met het model.

Mijn vraag is: is dit problematisch of kan ik gewoon verder gaan wetende dat mijn data niet goed past bij het model?

Hoop dat iemand mij kan helpen!!
Thanks
pi_167192666
Stel ik heb data die, als ik ze zou plotten, een beetje op een parabool zou lijken. Vervolgens voer ik een lineaire regressie uit. In dat geval past data die niet in de fit van het model, en dat heeft ten gevolge dat mijn voorspelde waarden (onder een lineair model) niet passen bij mijn geobserveerde waarden (want: exponentieel model). Je fit is slecht, dus je voorspelde waarden hebben een heel grote error component.

Wat denk je dan, dat je daarmee door kunt werken of dat je iets moet doen?
Your opinion of me is none of my business.
pi_167193052
quote:
0s.gif Op donderdag 8 december 2016 16:56 schreef Sarasi het volgende:
Stel ik heb data die, als ik ze zou plotten, een beetje op een parabool zou lijken. Vervolgens voer ik een lineaire regressie uit. In dat geval past data die niet in de fit van het model, en dat heeft ten gevolge dat mijn voorspelde waarden (onder een lineair model) niet passen bij mijn geobserveerde waarden (want: exponentieel model). Je fit is slecht, dus je voorspelde waarden hebben een heel grote error component.

Wat denk je dan, dat je daarmee door kunt werken of dat je iets moet doen?
Hmm, maar ik las dat het dan meestal aan je sample size ligt.
Mijn scriptiebegeleider wilde namelijk per se dat ik deze analyse ging uitvoeren terwijl mijn data niet ervoor geschikt was. De data heb ik vervolgens zo moet omgooien dat een binary logistic regression analyse uitvoerbaar was.
Anyway enig idee hoe ik dit kan oplossen?
pi_167193822
Met je begeleider gaan overleggen. Als hij wil dat je een analyse doet op data die daar niet geschikt voor zijn, klopt daar iets niet. Als hij wil dat je de data transformeert zodat de analyse wel mogelijk is, moet je even je oude statistiekboeken induiken. Als je dat nooit geleerd hebt, hoort je begeleider je te helpen.

Als je zelf wat meer opzoekt, kun je straks met een concrete vraag waarschijnlijk beter terecht in het centrale statistiektopic.

Succes! :)
Your opinion of me is none of my business.
pi_167447461
Ik ben momenteel bezig met een onderzoek naar de expertise van Nederland op het gebied van zeldzame ziekten. Hiervoor gebruik ik o.a. publicatie-data die ik nu redelijk netjes heb staan. Het format is:
Instituut X, uitland Y heeft in jaartal Z n aantal publicaties geschreven over ziekte Q.

Nu wil ik de ontwikkeling van het aantal publicaties over een ziekte over de tijd weergeven...en de invloed van de markt introductie van medicijnen en/of oprichting van patientenverenigingen hierop in kaart brengen.

Het gaat niet zo zeer om de absolute aantallen want die nemen eigenlijk altijd wel toe over de tijd. Ik wil vooral kijken naar de ontwikkeling van Nederland t.o.v. de wereld output en de ontwikkeling van de concentratie in Nederland binnen een instituut.

Eigenlijk zou ik na deze studie iets meer willen kunnen zeggen over de invloed van de onderstaande evenementen:
- Na marktintroductie medicijn nam het aandeel van Nederland in de wereld output af...
- Na oprichting patientenvereniging nam het aantal publicaties in Nederland toe
- Over de loop van de tijd zijn de publicaties van Nederland steeds meer geconcentreerd in Instituut X.

Ik zit te denken om een regressie te doen over de periode voor en na een evenement.
Op zich is dit niet een heel gecompliceerde vraagstuk maar ik zit er toch mee te stoeien...hoe dit op een wetenschappelijk verantwoorde manier weer te geven. Hierbij loop ik aan tegen zaken als:
- Wat doe je met jaren waarin geen publicaties geschreven zijn? (als ik output Nederland dan deel door wereld-output dan krijg ik uiteraard 0/0)
- Wat doe je met jaren waarin Nederland geen publicaties schreef?(Als ik de concentratie van de Nederlandse expertise in een instituut zou willen weergeven over de tijd dan moet ik publicaties instiuut delen door publicaties nederland...en dan krijgen we weer 0/0)

En stel ik krijg de volgende twee regressielijnen:
Voor evenement: y=1,5x +2
Na evenement: y= 2,0+ 3

- Hoe zou ik op basis van deze twee lijnen de invloed van het evenement kunnen quantificeren?

Alle hulp wordt gewaardeerd en vraag maar raak als iets je niet duidelijk is.
  † In Memoriam † maandag 19 december 2016 @ 23:08:56 #131
230491 Zith
pls tip
pi_167461267
quote:
0s.gif Op maandag 19 december 2016 17:13 schreef Mynheer007 het volgende:
Ik ben momenteel bezig met een onderzoek naar de expertise van Nederland op het gebied van zeldzame ziekten. Hiervoor gebruik ik o.a. publicatie-data die ik nu redelijk netjes heb staan. Het format is:
Instituut X, uitland Y heeft in jaartal Z n aantal publicaties geschreven over ziekte Q.

Nu wil ik de ontwikkeling van het aantal publicaties over een ziekte over de tijd weergeven...en de invloed van de markt introductie van medicijnen en/of oprichting van patientenverenigingen hierop in kaart brengen.

Het gaat niet zo zeer om de absolute aantallen want die nemen eigenlijk altijd wel toe over de tijd. Ik wil vooral kijken naar de ontwikkeling van Nederland t.o.v. de wereld output en de ontwikkeling van de concentratie in Nederland binnen een instituut.

Eigenlijk zou ik na deze studie iets meer willen kunnen zeggen over de invloed van de onderstaande evenementen:
- Na marktintroductie medicijn nam het aandeel van Nederland in de wereld output af...
- Na oprichting patientenvereniging nam het aantal publicaties in Nederland toe
- Over de loop van de tijd zijn de publicaties van Nederland steeds meer geconcentreerd in Instituut X.

Ik zit te denken om een regressie te doen over de periode voor en na een evenement.
Op zich is dit niet een heel gecompliceerde vraagstuk maar ik zit er toch mee te stoeien...hoe dit op een wetenschappelijk verantwoorde manier weer te geven. Hierbij loop ik aan tegen zaken als:
- Wat doe je met jaren waarin geen publicaties geschreven zijn? (als ik output Nederland dan deel door wereld-output dan krijg ik uiteraard 0/0)
- Wat doe je met jaren waarin Nederland geen publicaties schreef?(Als ik de concentratie van de Nederlandse expertise in een instituut zou willen weergeven over de tijd dan moet ik publicaties instiuut delen door publicaties nederland...en dan krijgen we weer 0/0)

En stel ik krijg de volgende twee regressielijnen:
Voor evenement: y=1,5x +2
Na evenement: y= 2,0+ 3

- Hoe zou ik op basis van deze twee lijnen de invloed van het evenement kunnen quantificeren?

Alle hulp wordt gewaardeerd en vraag maar raak als iets je niet duidelijk is.
Leuk onderzoek met raakvlakken op mijn PhD!

Ik raad je een difference-in-differences estimatie aan met Nederland als treatment group.




Dus twee dummies: Nederland (0/1), Ex-post (0/1). Periode na (ex-post) marktintroductie voor nederland is dus 1 & 1 voor beide dummies. Ik zou een periode nemen (bijv. 5 jaar na introducie, 5 jaar voor introductie) dan takkel je het probleem met nullen, per jaar kan ook, dan wordt het lastiger werk maar dan kan je zien of het effect na x jaar af neemt.

Y(publicaties?) = B0 + B1*Nederland + B2*ExPost + B3*Nederland*ExPost + BnXn + E.

Als de interactie NL*Expost significant en positief is dan heeft marktintroductie een positief effect op publicaties.

Mooist zou zijn als je een aantal landen neemt (US/UK/FR/DE/NL), dan kan je wellicht meerdere marktintroducties in meerdere landen bekijken.

Wellicht kan je ipv landen instituten gebruiken (en dan daarna bij resultaten ook bekijken of alle NL instituten vooruitgang boekten?

Je moet laten zien dat in gevallen zonder evenement er geen verschil is tussen beide groepen (dus dat ze bijv. beiden stijgen in publicaties)... kan je doen door naar vergelijkbare wetenschapspublicaties te kijken voor beide groepen (zie --->> parallel assumption test). Anders zou het kunnen dat een stijging van NLse publicaties komt omdat NL relatief meer subsidie is gaan geven terwijl andere landen dat minder zijn gaan doen.

Ik kan je eventueel mijn (in November gesubmit naar journal) working paper sturen, heeft raakvlakken in de zin dat het over wetenschap(pers) gaat en diff-in-diff na een evenement gaat.

[ Bericht 2% gewijzigd door Zith op 20-12-2016 00:40:31 ]
I am a Chinese college students, I have a loving father, but I can not help him, he needs to do heart bypass surgery, I can not help him, because the cost of 100,000 or so needed, please help me, lifelong You pray Thank you!
pi_167463264
quote:
0s.gif Op maandag 19 december 2016 23:08 schreef Zith het volgende:

[..]

Leuk onderzoek met raakvlakken op mijn PhD!

Ik raad je een difference-in-differences estimatie aan met Nederland als treatment group.


[ afbeelding ]

Dus twee dummies: Nederland (0/1), Ex-post (0/1). Periode na (ex-post) marktintroductie voor nederland is dus 1 & 1 voor beide dummies. Ik zou een periode nemen (bijv. 5 jaar na introducie, 5 jaar voor introductie) dan takkel je het probleem met nullen, per jaar kan ook, dan wordt het lastiger werk maar dan kan je zien of het effect na x jaar af neemt.

Y(publicaties?) = B0 + B1*Nederland + B2*ExPost + B3*Nederland*ExPost + BnXn + E.

Als de interactie NL*Expost significant en positief is dan heeft marktintroductie een positief effect op publicaties.

Mooist zou zijn als je een aantal landen neemt (US/UK/FR/DE/NL), dan kan je wellicht meerdere marktintroducties in meerdere landen bekijken.

Wellicht kan je ipv landen instituten gebruiken (en dan daarna bij resultaten ook bekijken of alle NL instituten vooruitgang boekten?

Je moet laten zien dat in gevallen zonder evenement er geen verschil is tussen beide groepen (dus dat ze bijv. beiden stijgen in publicaties)... kan je doen door naar vergelijkbare wetenschapspublicaties te kijken voor beide groepen (zie --->> parallel assumption test)

Ik kan je eventueel mijn (in November gesubmit naar journal) working paper sturen, heeft raakvlakken in de zin dat het over wetenschap(pers) gaat en diff-in-diff na een evenement gaat.
Bedankt voor je uitgebreide reactie. Ik ga er morgen even goed voor zitten om te kijken hoe ver ik hier mee kan komen. Ik stuur je morgen ook wel even een pm want ik ben wel geïnteresseerd in hoe jij het hebt aangepakt.

[ Bericht 0% gewijzigd door Mynheer007 op 20-12-2016 00:08:19 ]
  dinsdag 20 december 2016 @ 00:36:43 #133
343486 KingRoland
#TEAMJOHANNES
pi_167464263
tvp

ook ik moet eraan geloven
pi_167467254
quote:
1s.gif Op maandag 19 december 2016 23:58 schreef Mynheer007 het volgende:

[..]

Bedankt voor je uitgebreide reactie. Ik ga er morgen even goed voor zitten om te kijken hoe ver ik hier mee kan komen. Ik stuur je morgen ook wel even een pm want ik ben wel geïnteresseerd in hoe jij het hebt aangepakt.
Je kunt ook kijken naar een Chow test. Dan kijk je of er een structural break zit op een vooraf gespecificeerd punt. In jouw geval zou dat prima kunnen volgens mij, dan bekijk je de data voor en na de oprichting van een patientenvereniging etc.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_167501771
quote:
0s.gif Op dinsdag 20 december 2016 09:43 schreef wimjongil het volgende:

[..]

Je kunt ook kijken naar een Chow test. Dan kijk je of er een structural break zit op een vooraf gespecificeerd punt. In jouw geval zou dat prima kunnen volgens mij, dan bekijk je de data voor en na de oprichting van een patientenvereniging etc.
Bedankt voor de tip. Ik heb er al een paar mooie plaatjes mee kunnen maken en heb gevonden wat ik wilde; een hele duidelijk break op het moment dat er een medicijn geïntroduceerd werd. Echter is dat bij sommige ziekten weer net anders maar dan blijken er dus verschillende ontwikkelmodellen zijn:)
  maandag 9 januari 2017 @ 17:03:40 #136
85618 No-P
Dosis sola venenum facit
pi_168006703
Ik zit te klooien met de correlatie tussen meerdere metingen van dezelfde objecten in verschillende laboratoria. De schaal is continue, maar de waarden zijn niet normaal verdeeld, dus ik zou de spearmans rho kunnen gebruiken om de 2 laboratoria te kunnen vergelijken. Echter zit ik met het volgende.

De metingen in het lab zijn in duplo uitgevoerd. Met dat laatste weet ik niet goed om te gaan.

Vraag: hoe bepaal ik de correlatie tussen de metingen in 2 verschillende labs (lab-A en lab-B) waarbij de metingen n=80 (01_lab-A en 02_lab-A .... 80_lab-A) in de laboratoria ook in duplo (01_lab-A_1 en 01_lab-A_2) zijn uitgevoerd.
Sei wachsam,
Fall nicht auf sie rein! Paß auf, daß du deine Freiheit nutzt,
Die Freiheit nutzt sich ab, wenn du sie nicht nutzt!
pi_168268753
Hoi,

Ik heb tweemaal een correlogram gemaakt:





Wat is het verschil als ik kijk naar een correlogram van Y1 uit het model en als ik naar een correlogram kijk van de residuals uit het model? Meestal gaan de autocorrelaties van lags via de residuals het model binnendringen wat niet goed is en betekent dat je extra lags moet toevoegen, toch? Maar is de betekenis en intuitie als je kijkt naar een correlogram van de Y1 variabele ansich? En wat is het verschil tussen het kijken naar een correlogram van Y1 en het kijken naar een correlogram van de residuals?


Daarnaast... Waar moet ik naar kijken om te weten of er een autocorrelatie is en vanaf welke lag etc.?
  vrijdag 20 januari 2017 @ 12:56:02 #138
304004 KaBuf
#teamfriet
pi_168290540
Vraagje O+
Even eenvoudig gesteld. Ik heb variabele A, B en ik meet interactie A*B.
Voor A heb ik hypothese 1.
Voor B heb ik hypothese 2.
Voor A*B heb ik hypothese 3.

Naar mijn idee moet ik dan drie losse regressies draaien:
Eerste egressie met de controlevariabelen en variabele A, om hypothese 1 te meten.
Tweede regressie 1 met de controlevariabelen en variabele B, om hypothese 2 te meten.

Maar ik twijfel over de derde regressie om hypothese 3 te meten, met de invloed van A*B. Moet ik dan enkel de interactie A*B meenemen, of ook de twee losse variabelen A en B?
Kan iemand mij uit de brand helpen? :@
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
pi_168291028
quote:
2s.gif Op vrijdag 20 januari 2017 12:56 schreef KaBuf het volgende:
Vraagje O+
Even eenvoudig gesteld. Ik heb variabele A, B en ik meet interactie A*B.
Voor A heb ik hypothese 1.
Voor B heb ik hypothese 2.
Voor A*B heb ik hypothese 3.

Naar mijn idee moet ik dan drie losse regressies draaien:
Eerste egressie met de controlevariabelen en variabele A, om hypothese 1 te meten.
Tweede regressie 1 met de controlevariabelen en variabele B, om hypothese 2 te meten.

Maar ik twijfel over de derde regressie om hypothese 3 te meten, met de invloed van A*B. Moet ik dan enkel de interactie A*B meenemen, of ook de twee losse variabelen A en B?
Kan iemand mij uit de brand helpen? :@
Je moet 1 enkel model doen, waarin zowel beide variabelen als de interactie staan. Voor robistness checks eventueel een paar extra met verschillende extra controlevariabelen, maar wel elke keer met beide variabelen en de interactie. Als je daar een deel van uitlaat meet je immers niet langer het pure effect dat je zoekt.

Is het overigens bijna nooit het geval dat je het pure effect meet dat je zoekt, maar je probeert het uiteraard wel zo dicht mogelijk te benaderen.
pi_168291277
Wel een slechte eerste begeleider die het op de manier zoals je het eerst hebt gedaan goedkeurt :')
  vrijdag 20 januari 2017 @ 14:05:02 #141
304004 KaBuf
#teamfriet
pi_168292065
Tweede lezer zegt letterlijk:

quote:
volgens mij zou de student vier regressies kunnen draaien:
- Een zonder interacties (alleen main effects)
- Een met interactie RvC x PBetr
- Een met interactie AC x PBetr
- Een met interacties RcC x PBetr en AC x PBetr. (volledig model)
Dus die zegt ook verschillende regressies :P
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
  vrijdag 20 januari 2017 @ 14:06:01 #142
304004 KaBuf
#teamfriet
pi_168292085
quote:
0s.gif Op vrijdag 20 januari 2017 13:31 schreef MCH het volgende:
Wel een slechte eerste begeleider die het op de manier zoals je het eerst hebt gedaan goedkeurt :')
Mijn begeleider heeft letterlijk naar de tweede lezer gemaild:
quote:
ik denk dat ik het allemaal al significant genoeg vond
:X
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
pi_168292307
quote:
2s.gif Op vrijdag 20 januari 2017 14:05 schreef KaBuf het volgende:
Tweede lezer zegt letterlijk:

[..]

Dus die zegt ook verschillende regressies :P
Het voordeel aan meerdere en steeds uitgebreidere regressies is ook dat je zo kunt zien hoe de coëfficiënten en p-waardes van de variabelen die je onderzoekt per model veranderen. Dat biedt meer zekerheid (of juist niet) over de werkelijke waardes ervan.
  vrijdag 20 januari 2017 @ 14:18:51 #144
304004 KaBuf
#teamfriet
pi_168292406
quote:
0s.gif Op vrijdag 20 januari 2017 14:14 schreef Kaas- het volgende:

[..]

Het voordeel aan meerdere en steeds uitgebreidere regressies is ook dat je zo kunt zien hoe de coëfficiënten en p-waardes van de variabelen die je onderzoekt per model veranderen. Dat biedt meer zekerheid (of juist niet) over de werkelijke waardes ervan.
Zover was ik al ja :P

Maar als mijn hypothese dan is: A beinvloedt X.
Moet ik voor beantwoording dus wel het definitieve model pakken (dus incl B en A*B), maar kan ik (zoals jij zegt) wel overwegen in hoeverre A beinvloedbaar is door die kleinere regressies mee te nemen?

Oh man ik ben zo slecht in statistiek :')
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
pi_168292671
quote:
2s.gif Op vrijdag 20 januari 2017 14:18 schreef KaBuf het volgende:

[..]

Zover was ik al ja :P

Maar als mijn hypothese dan is: A beinvloedt X.
Moet ik voor beantwoording dus wel het definitieve model pakken (dus incl B en A*B), maar kan ik (zoals jij zegt) wel overwegen in hoeverre A beinvloedbaar is door die kleinere regressies mee te nemen?

Oh man ik ben zo slecht in statistiek :')
Als in al die verschillende modellen A een p-waarde heeft die lager is dan bijvoorbeeld .01 of .05 en dat de coëfficiënt ook telkens redelijk gelijk is, en je daarnaast ook kwalitatief kan beredeneren waarom het logisch is dat A een directe invloed heeft op X en dat het niet door andere zaken komt, dan kan je prima stellen dat je bewijs hebt gevonden voor die hypothese.
  vrijdag 20 januari 2017 @ 14:33:28 #146
304004 KaBuf
#teamfriet
pi_168292680
quote:
7s.gif Op vrijdag 20 januari 2017 14:32 schreef Kaas- het volgende:

[..]

Als in al die verschillende modellen A een p-waarde heeft die lager is dan bijvoorbeeld .01 of .05 en dat de coëfficiënt ook telkens redelijk gelijk is, en je daarnaast ook kwalitatief kan beredeneren waarom het logisch is dat A een directe invloed heeft op X en dat het niet door andere zaken komt, dan kan je prima stellen dat je bewijs hebt gevonden voor die hypothese.
Dank O+
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
pi_168292760
quote:
2s.gif Op vrijdag 20 januari 2017 14:33 schreef KaBuf het volgende:

[..]

Dank O+
Het is zo basic en iets dat je veel gebruikt dat de meeste studenten er volgens mij al niet eens meer bij stil staan, maar een p-waarde van ca. 0 in een regressie betekent eigenlijk niets anders dan dat die coëfficiënt significant van nul afwijkt en er binnen je geschatte model dus een invloed van die onafhankelijke variabele op de afhankelijke variabele is.

Zonder robustness checks en zonder kwalitatieve analyse is dat echter op zichzelf nog geen bewijs dat er dus sprake is van een causaal verband.

Leuk trouwens dat je nu zo ver bent. Nog even de laatste wijzigingen en dan zal je wel klaar zijn. ^O^
  vrijdag 20 januari 2017 @ 14:45:11 #148
304004 KaBuf
#teamfriet
pi_168292911
quote:
7s.gif Op vrijdag 20 januari 2017 14:37 schreef Kaas- het volgende:

[..]

Het is zo basic en iets dat je veel gebruikt dat de meeste studenten er volgens mij al niet eens meer bij stil staan, maar een p-waarde van ca. 0 in een regressie betekent eigenlijk niets anders dan dat die coëfficiënt significant van nul afwijkt en er binnen je geschatte model dus een invloed van die onafhankelijke variabele op de afhankelijke variabele is.

Zonder robustness checks en zonder kwalitatieve analyse is dat echter op zichzelf nog geen bewijs dat er dus sprake is van een causaal verband.

Leuk trouwens dat je nu zo ver bent. Nog even de laatste wijzigingen en dan zal je wel klaar zijn. ^O^
Ja heb ook (natuurlijk) robuustheidschecks enzo in mn onderzoek verwerkt. :Y
Op 9 februari staat mijn verdediging gepland, dus even knallen nog :Y
Please consider the environment before printing this post.
Op zaterdag 27 mei 2017 00:36 schreef d4v1d het volgende:
Kabuf is af en toe best een prima kerel.
pi_168573570
Hoi,

Kan iemand die verstand heeft van statistiek mij uit de brand helpen? Het gaat over de unit-root case van de Dickey and Fuller test... en het gaat om dit stukje:

''Consider the equation: Yt = 2Yt-1 - Yt-2 + ut

This is a I(2) series. This latter piece of terminology states that I(2) series contains two unit roots, a I(1) series contains one unit root and I(0) series is completely stationary. Because of the I(2) series in this case, we will need to difference the equation 2 times to get rid of the two unit roots and get a I(0) equation''

Wat ik mij dus afvraag is:

Als je het volgende hebt:



Waarbij sprake is van een unit root als :



Dan kan dat toch maar één keer gebeuren? Hoe kan er méér dan 1 unit roots zijn?!
pi_168743943
Weet iemand hoe ik dit moet interpreteren?:



Ik begrijp dat een GARCH-model hetzelfde is als ARMA-model, maar dan een GARCH model er is voor de volatiliteit/varianties. Maar ik begrijp niet hoe de effecten van de volatiliteit te kunnen interpreteren door middel van een schatting van de regressie via STATA..
  dinsdag 7 februari 2017 @ 21:31:22 #151
376125 CapnIzzy
Geef aye voor de kapitein
pi_168744309
Youtube/professor/medestudenten al geprobeerd?
Onoverwinnelijk/Rotterdam/Zeerover
https://www.playgwent.com/en/ - Official beta of Gwent: The Witcher Gard Game
pi_168744660
quote:
0s.gif Op dinsdag 7 februari 2017 21:31 schreef CapnIzzy het volgende:
Youtube/professor/medestudenten al geprobeerd?
Professor: reageert zelden en als die dan reageert dan zijn we al zeker 1.5-2weken verder. :')

Medestudenten: lopen achter.
  dinsdag 7 februari 2017 @ 22:49:58 #153
376125 CapnIzzy
Geef aye voor de kapitein
pi_168747267
quote:
0s.gif Op dinsdag 7 februari 2017 21:39 schreef RustCohle het volgende:

[..]

Professor: reageert zelden en als die dan reageert dan zijn we al zeker 1.5-2weken verder. :')

Medestudenten: lopen achter.
Kan je na college niks vragen dan? Anders wordt het gewoon youtube (welke vaak nog best handig is)
Onoverwinnelijk/Rotterdam/Zeerover
https://www.playgwent.com/en/ - Official beta of Gwent: The Witcher Gard Game
pi_169310732
Iemand enig idee wat fout is aan de volgende formule voor excel ?

=ALS(OF(BW2 < 150, BW2 > 1500),1,0)
"the greatest enemy of knowledge is not ignorance, it is the illusion of knowledge." -Stephen W. Hawking
  zondag 5 maart 2017 @ 20:21:32 #155
235003 wimjongil
Harde man
pi_169313984
Moet die komma in de or-statement geen puntkomma zijn?
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_169317158
Hoi!
Ik heb een vraag over mijn afstudeeronderzoek. Ik wil de test-hertest betrouwbaarheid en validiteit berekenen van een vragenlijst die bestaat uit twee schalen. De data is verzameld aan de hand van vragen op een 4-punts likertschaal (Helemaal mee eens, mee eens, oneens, helemaal oneens).

Op dit moment wil ik de assumpties testen voor de test-hertest betrouwbaarheid. Maar ik zit met de vraag of ik nu de schaal van de eerste afname en de schaal van de tweede afname tegelijkertijd moet testen op normaliteit, of moet ik dat eerst van elke schaal apart doen? Gezamenlijk zijn ze normaal verdeelt. Echter als ik naar ieder apart kijk, blijkt er dat een niet normaal verdeeld is.

Ik hoop dat jullie begrijpen wat ik bedoel en mij kunnen helpen.
pi_169324731
quote:
0s.gif Op zondag 5 maart 2017 21:31 schreef Droppiedrie het volgende:
Hoi!
Ik heb een vraag over mijn afstudeeronderzoek. Ik wil de test-hertest betrouwbaarheid en validiteit berekenen van een vragenlijst die bestaat uit twee schalen. De data is verzameld aan de hand van vragen op een 4-punts likertschaal (Helemaal mee eens, mee eens, oneens, helemaal oneens).

Op dit moment wil ik de assumpties testen voor de test-hertest betrouwbaarheid. Maar ik zit met de vraag of ik nu de schaal van de eerste afname en de schaal van de tweede afname tegelijkertijd moet testen op normaliteit, of moet ik dat eerst van elke schaal apart doen? Gezamenlijk zijn ze normaal verdeelt. Echter als ik naar ieder apart kijk, blijkt er dat een niet normaal verdeeld is.

Ik hoop dat jullie begrijpen wat ik bedoel en mij kunnen helpen.
Als je voldoende ruimte hebt om dit zo te beschrijven kan je er ook voor kiezen om alle varianten te presenteren. Als dat niet zo is, dan is er iets voor te zeggen om het bij de eerste keer te houden, want als je geen test-hertestbetrouwbaarheid had gedaan, had je ook de tweede set niet afgenomen.

Overigens, geeft het maar mooi aan dat er altijd iets bestaat als toevalstreffers, als dezelfde test op een ander moment een ander resultaat op je toets van assumptie geeft. Ik zou dus ook altijd een visuele inspectie doen om te kijken of je gekke dingen ziet. Normaliteitstoetsen zijn er in veel vormen en maten. Een simpele histogram helpt altijd wel wat, een Q-Q plot of P-P plot ook.

En daarbij komt de vraag, in hoeverre kan een vierpuntsschaal eigenlijk normaald verdeeld zijn? Je zal nooit een belvorm kunnen aantreffen omdat het geen continue schaal is. Dus ik zou t allemaal met een korreltje zout nemen.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_169326110
quote:
0s.gif Op maandag 6 maart 2017 08:30 schreef crossover het volgende:

[..]

Als je voldoende ruimte hebt om dit zo te beschrijven kan je er ook voor kiezen om alle varianten te presenteren. Als dat niet zo is, dan is er iets voor te zeggen om het bij de eerste keer te houden, want als je geen test-hertestbetrouwbaarheid had gedaan, had je ook de tweede set niet afgenomen.

Overigens, geeft het maar mooi aan dat er altijd iets bestaat als toevalstreffers, als dezelfde test op een ander moment een ander resultaat op je toets van assumptie geeft. Ik zou dus ook altijd een visuele inspectie doen om te kijken of je gekke dingen ziet. Normaliteitstoetsen zijn er in veel vormen en maten. Een simpele histogram helpt altijd wel wat, een Q-Q plot of P-P plot ook.

En daarbij komt de vraag, in hoeverre kan een vierpuntsschaal eigenlijk normaald verdeeld zijn? Je zal nooit een belvorm kunnen aantreffen omdat het geen continue schaal is. Dus ik zou t allemaal met een korreltje zout nemen.
Heel erg bedankt voor je antwoord! Ik denk dat ik inderdaad op het verkeerde spoor zit en dat ik het discontinue zou moeten bekijken. Ik ga het verder uitzoeken :)
  donderdag 6 april 2017 @ 21:41:45 #159
310793 Mishu
Fok verslaafde
pi_170052202
Hallo. Ik wil een multivariabele logistische regressie analyse uitvoeren. Gaat allemaal goed, yolo, maar: hoe meer variabelen ik selecteer hoe kleiner mijn steekproef wordt en langzaamaan zijn mijn resultaten dan ook niet meer significant ;(

Wat is hiervoor een goede oplossing? Minder variabelen nemen en proberen tot een optimaal voorspellend model te komen?

Wat is eigenlijk de ondergrens qua steekproefgrootte bij logistische regressie?
  † In Memoriam † donderdag 6 april 2017 @ 22:12:46 #160
230491 Zith
pls tip
pi_170053159
Je hebt variabelen ertussen zonder waardes bij observaties. Observaties met missende waardes voor variabelen worden niet meegenomen in de regressie.

Oplossing : vul de missende waardes in
I am a Chinese college students, I have a loving father, but I can not help him, he needs to do heart bypass surgery, I can not help him, because the cost of 100,000 or so needed, please help me, lifelong You pray Thank you!
  donderdag 6 april 2017 @ 22:36:30 #161
310793 Mishu
Fok verslaafde
pi_170053990
quote:
0s.gif Op donderdag 6 april 2017 22:12 schreef Zith het volgende:
Je hebt variabelen ertussen zonder waardes bij observaties. Observaties met missende waardes voor variabelen worden niet meegenomen in de regressie.

Oplossing : vul de missende waardes in
Oftewel, de vragen zijn dan niet ingevuld? In dat geval kan ik dat niet doen want dan fraudeer ik :P
  † In Memoriam † donderdag 6 april 2017 @ 23:17:53 #162
230491 Zith
pls tip
pi_170055134
Inderdaad... ik heb in het verleden wel eens missende cijfers de gemiddelde waarde gegeven van de rest, maar daar zit een handvol problemen aan (minder variabiliteit, bias, leugens, etc).

Ik denk dat je of moet accepteren dat je weinig observaties heb met het hele model, of bekijken welke variabelen degene zijn met veel missende waardes en bedenken of je het kan verdedigen om die eruit te laten.
I am a Chinese college students, I have a loving father, but I can not help him, he needs to do heart bypass surgery, I can not help him, because the cost of 100,000 or so needed, please help me, lifelong You pray Thank you!
pi_170082727
Dit probleem kan je 'oplossen' met behulp van (multipele) imputatie, maar inderdaad geldt garbage in, garbage out.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_170236875
Hallo,

Ik ben bezig met mijn thesis en loop een beetje vast met de analyses. De onderzoeksvraag is of de relatie tussen effortful control (een temperamentkenmerk) en externaliserend probleemgedrag gemodereerd wordt door sekse. Zowel effortful control als externaliserend probleemgedrag hebben een interval meetniveau. Sekse heeft een nominaal/dichotoom meetniveau. De analyse die ik wil doen is een multipele regressie waarbij ik zowel sekse als effortful control moet centreren. Nou kan ik van effortful control een gemiddelde uitrekenen en centreren met SPSS door een nieuwe variabele te maken. Hoe moet ik dan sekse centreren? Ik kan geen gemiddelde uitrekenen van jongen en meisje.

Ik hoop dat jullie mij kunnen helpen!!
pi_170351908
Hey,

Weet iemand hoe je in STATA het beste stocks kunt sorteren op basis van bepaalde karakteristieken en hoe je daaropvolgend portfolio's kunt aanmaken?
  vrijdag 21 april 2017 @ 14:08:23 #166
310793 Mishu
Fok verslaafde
pi_170382029
quote:
0s.gif Op zaterdag 15 april 2017 13:53 schreef fatma.95 het volgende:
Hallo,

Ik ben bezig met mijn thesis en loop een beetje vast met de analyses. De onderzoeksvraag is of de relatie tussen effortful control (een temperamentkenmerk) en externaliserend probleemgedrag gemodereerd wordt door sekse. Zowel effortful control als externaliserend probleemgedrag hebben een interval meetniveau. Sekse heeft een nominaal/dichotoom meetniveau. De analyse die ik wil doen is een multipele regressie waarbij ik zowel sekse als effortful control moet centreren. Nou kan ik van effortful control een gemiddelde uitrekenen en centreren met SPSS door een nieuwe variabele te maken. Hoe moet ik dan sekse centreren? Ik kan geen gemiddelde uitrekenen van jongen en meisje.

Ik hoop dat jullie mij kunnen helpen!!
Volgens mij centreer je die gewoon niet dan:

http://oupsy.nl/help/1393/wanneer-centreren-en-standaardiseren
  vrijdag 21 april 2017 @ 14:14:45 #167
310793 Mishu
Fok verslaafde
pi_170382197
Vraagje: wat is de motivatie om bijvoorbeeld 'aantal kinderen' op interval of op nominaal (wel of geen kinderen) te meten?

Bij beiden is het effect significant, bij nominaal nog iets sterker.

Iemand een idee?
pi_170382345
quote:
0s.gif Op vrijdag 21 april 2017 14:14 schreef Mishu het volgende:
Vraagje: wat is de motivatie om bijvoorbeeld 'aantal kinderen' op interval of op nominaal (wel of geen kinderen) te meten?

Bij beiden is het effect significant, bij nominaal nog iets sterker.

Iemand een idee?
:')

Dat is zo'n beetje het basisbeginsel van statistiek. Met intervaldata kun je veel meer informatie uit je gegevens halen.
pi_170384354
Hoi,

Ik heb een vraag over SPSS. Ik heb een vragenlijst gemaakt via LimeSurvey (misschien heeft iemand hier ook ervaring mee). Ik heb nu de data/resultaten geëxporteerd naar SPSS.

Als je in SPSS een analyse wilt uitvoeren moet je de afhankelijke variabelen en de onafhankelijke variabelen selecteren. Mijn afhankelijke variabelen is mijn vragenlijst. Alleen is het probleem, dat ik nu dus in SPSS niet 1 variabele (mijn vragenlijst) heb, maar heel veel variabelen en elke variabele stelt 1 vraag/item voor uit mijn vragenlijst. Ik kan nu dus de analyses niet uitvoeren. Heb ik iets fout gedaan? Moet ik iets veranderen in SPSS?

Ik hoop dat iemand me kan helpen.
pi_170384378
quote:
0s.gif Op vrijdag 21 april 2017 16:25 schreef student_123 het volgende:
Hoi,

Ik heb een vraag over SPSS. Ik heb een vragenlijst gemaakt via LimeSurvey (misschien heeft iemand hier ook ervaring mee). Ik heb nu de data/resultaten geëxporteerd naar SPSS.

Als je in SPSS een analyse wilt uitvoeren moet je de afhankelijke variabelen en de onafhankelijke variabelen selecteren. Mijn afhankelijke variabelen is mijn vragenlijst. Alleen is het probleem, dat ik nu dus in SPSS niet 1 variabele (mijn vragenlijst) heb, maar heel veel variabelen en elke variabele stelt 1 vraag/item voor uit mijn vragenlijst. Ik kan nu dus de analyses niet uitvoeren. Heb ik iets fout gedaan? Moet ik iets veranderen in SPSS?

Ik hoop dat iemand me kan helpen.
Weet je überhaupt wel wat een afhankelijke variabele is?
pi_170384403
quote:
0s.gif Op vrijdag 21 april 2017 16:25 schreef student_123 het volgende:
Hoi,

Ik heb een vraag over SPSS. Ik heb een vragenlijst gemaakt via LimeSurvey (misschien heeft iemand hier ook ervaring mee). Ik heb nu de data/resultaten geëxporteerd naar SPSS.

Als je in SPSS een analyse wilt uitvoeren moet je de afhankelijke variabelen en de onafhankelijke variabelen selecteren. Mijn afhankelijke variabelen is mijn vragenlijst. Alleen is het probleem, dat ik nu dus in SPSS niet 1 variabele (mijn vragenlijst) heb, maar heel veel variabelen en elke variabele stelt 1 vraag/item voor uit mijn vragenlijst. Ik kan nu dus de analyses niet uitvoeren. Heb ik iets fout gedaan? Moet ik iets veranderen in SPSS?

Ik hoop dat iemand me kan helpen.
Wat is je onderzoeksvraag? Want ookal heb je een vragenlijst, dan kunnen de variabelen daarin nog steeds de onafhankelijke variabele(n) en afhankele variabele(n) zijn. :)
pi_170394180
Heb een behoorlijk probleem met missing values (ongeveer 300.000 observations). Iemand die hier truucjes mee weet met STATA of Excel, zo ja wie wil mij helpen? Als iemand dat wil, dan leg ik precies uit wat het probleem is. Het is niet zo simpel als dat het lijkt helaas :D
pi_170415156
quote:
0s.gif Op vrijdag 21 april 2017 23:31 schreef Super-B het volgende:
Heb een behoorlijk probleem met missing values (ongeveer 300.000 observations). Iemand die hier truucjes mee weet met STATA of Excel, zo ja wie wil mij helpen? Als iemand dat wil, dan leg ik precies uit wat het probleem is. Het is niet zo simpel als dat het lijkt helaas :D
Ik heb twee Excel-data files uit CompuStat global gehaald:

1. Maandelijkse MSCI-World index prices

2. Maandelijkse financial statement data (zoals P/E ratio, B/P ratio) van verschillende bedrijven over de periode 1990-2017. De bedrijven hebben allemaal een company-key als filter-optie in Excel.

Wat ik moet doen, en waar ik niet uit kom, is het volgende:

- In dataset 2 zijn er een hoop missing values:

* sommige bedrijven hebben geen waarden voor één of meerdere variabelen op bepaalde tijdspunten. En daarnaast hebben niet alle bedrijven een tijdsperiode van 1950 tot 2017, sommige hebben een periode van 1993-2017, bijvoorbeeld.


Dan is mijn vraag dus, hoe los ik dit op en hoe kan ik dit het beste mergen in Excel/STATA?

[ Bericht 4% gewijzigd door Super-B op 24-04-2017 21:08:58 ]
  zondag 23 april 2017 @ 14:05:04 #174
310793 Mishu
Fok verslaafde
pi_170425683
quote:
0s.gif Op zaterdag 22 april 2017 22:28 schreef Super-B het volgende:

[..]

Ik heb drie Excel-data files uit CompuStat global gehaald:

1. Maandelijkse MSCI-World index prices

2. Maandelijkse financial statement data (zoals P/E ratio, B/P ratio) van verschillende bedrijven over de periode 1990-2017. De bedrijven hebben allemaal een company-key als filter-optie in Excel.

Wat ik moet doen, en waar ik niet uit kom, is het volgende:

- In dataset 2 zijn er een hoop missing values:

* sommige bedrijven hebben geen waarden voor één of meerdere variabelen op bepaalde tijdspunten. En daarnaast hebben niet alle bedrijven een tijdsperiode van 1950 tot 2017, sommige hebben een periode van 1993-2017, bijvoorbeeld.


Dan is mijn vraag dus, hoe los ik dit op en hoe kan ik dit het beste mergen in Excel/STATA?
Ik werk met een voorbereide dataset maar ik wil best proberen om met je mee te denken: als er data ontbreekt, dan ontbreekt er gewoon data. Jammer dan.

In mijn dataset zitten er 'sysmis' variabelen waar de missende data en mensen die 0 of neutraal hebben geantwoord eruit zijn gehaald.
  zondag 23 april 2017 @ 14:06:21 #175
310793 Mishu
Fok verslaafde
pi_170425713
quote:
0s.gif Op vrijdag 21 april 2017 16:25 schreef student_123 het volgende:
Hoi,

Ik heb een vraag over SPSS. Ik heb een vragenlijst gemaakt via LimeSurvey (misschien heeft iemand hier ook ervaring mee). Ik heb nu de data/resultaten geëxporteerd naar SPSS.

Als je in SPSS een analyse wilt uitvoeren moet je de afhankelijke variabelen en de onafhankelijke variabelen selecteren. Mijn afhankelijke variabelen is mijn vragenlijst. Alleen is het probleem, dat ik nu dus in SPSS niet 1 variabele (mijn vragenlijst) heb, maar heel veel variabelen en elke variabele stelt 1 vraag/item voor uit mijn vragenlijst. Ik kan nu dus de analyses niet uitvoeren. Heb ik iets fout gedaan? Moet ik iets veranderen in SPSS?

Ik hoop dat iemand me kan helpen.
Je afhankelijke variabele is waar je onafhankelijke variabelen effect op hebben. Je hebt dus maar 1 afhankelijke variabele. Je test de invloed van 1 of meerdere onafhankelijke variabelen op die afhankelijke variabele.
  zondag 23 april 2017 @ 23:57:22 #176
310793 Mishu
Fok verslaafde
pi_170446026
quote:
0s.gif Op zaterdag 22 april 2017 22:28 schreef Super-B het volgende:

[..]

Ik heb drie Excel-data files uit CompuStat global gehaald:

1. Maandelijkse MSCI-World index prices

2. Maandelijkse financial statement data (zoals P/E ratio, B/P ratio) van verschillende bedrijven over de periode 1990-2017. De bedrijven hebben allemaal een company-key als filter-optie in Excel.

Wat ik moet doen, en waar ik niet uit kom, is het volgende:

- In dataset 2 zijn er een hoop missing values:

* sommige bedrijven hebben geen waarden voor één of meerdere variabelen op bepaalde tijdspunten. En daarnaast hebben niet alle bedrijven een tijdsperiode van 1950 tot 2017, sommige hebben een periode van 1993-2017, bijvoorbeeld.


Dan is mijn vraag dus, hoe los ik dit op en hoe kan ik dit het beste mergen in Excel/STATA?
In SPSS gebruik je de optie 'exclude cases pairwise' om missing values eruit te halen.
pi_170446407
quote:
1s.gif Op zondag 23 april 2017 23:57 schreef Mishu het volgende:
exclude cases pairwise
Wat doet die functie dan precies? Het zou fijn zijn als ik in Excel/STATA een functie heb waarbij alle rows van de desbetreffende firm en dus de firm uit de data wordt verwijderd op het moment dat er missing values zijn.

Met Excel kan ik automatisch rows laten verwijderen op het moment dat er missing values zijn, maar dan verwijdert Excel alleen één of meerdere jaren van een bepaalde firm. Nog steeds zit de firm er dan in, met 'gebroken' jaren, bijvoorbeeld 1995-2010 en dan 2013-2016.... En ik wil dan gewoon dat dan de firm dan gewoon helemaal uit de sample wordt verwijderd.

Handmatig is grofweg onmogelijk met zowat 200.000 observaties... :(

Iemand die mij hieruit kan helpen?

Dus op het moment dat er één of meerdere variabelen (kolommen) een missing value heeft in één of meerdere rijen (jaren) ---> dan gewoon alle rijen m.b.t. de firm verwijderen... Het ziet er ongeveer zo uit:



[ Bericht 11% gewijzigd door Super-B op 24-04-2017 00:39:05 ]
  maandag 24 april 2017 @ 10:56:02 #178
310793 Mishu
Fok verslaafde
pi_170449539
quote:
0s.gif Op maandag 24 april 2017 00:26 schreef Super-B het volgende:

[..]

Wat doet die functie dan precies? Het zou fijn zijn als ik in Excel/STATA een functie heb waarbij alle rows van de desbetreffende firm en dus de firm uit de data wordt verwijderd op het moment dat er missing values zijn.

Met Excel kan ik automatisch rows laten verwijderen op het moment dat er missing values zijn, maar dan verwijdert Excel alleen één of meerdere jaren van een bepaalde firm. Nog steeds zit de firm er dan in, met 'gebroken' jaren, bijvoorbeeld 1995-2010 en dan 2013-2016.... En ik wil dan gewoon dat dan de firm dan gewoon helemaal uit de sample wordt verwijderd.

Handmatig is grofweg onmogelijk met zowat 200.000 observaties... :(

Iemand die mij hieruit kan helpen?

Dus op het moment dat er één of meerdere variabelen (kolommen) een missing value heeft in één of meerdere rijen (jaren) ---> dan gewoon alle rijen m.b.t. de firm verwijderen... Het ziet er ongeveer zo uit:

[ afbeelding ]

Ik zou de term even googelen. Ik Google ook veel. Ik zou anders je dataset in SPSS voorbereiden en dan in het andere programma verder gaan.
pi_170450368
quote:
0s.gif Op maandag 24 april 2017 00:26 schreef Super-B het volgende:

[..]

Wat doet die functie dan precies? Het zou fijn zijn als ik in Excel/STATA een functie heb waarbij alle rows van de desbetreffende firm en dus de firm uit de data wordt verwijderd op het moment dat er missing values zijn.

Met Excel kan ik automatisch rows laten verwijderen op het moment dat er missing values zijn, maar dan verwijdert Excel alleen één of meerdere jaren van een bepaalde firm. Nog steeds zit de firm er dan in, met 'gebroken' jaren, bijvoorbeeld 1995-2010 en dan 2013-2016.... En ik wil dan gewoon dat dan de firm dan gewoon helemaal uit de sample wordt verwijderd.

Handmatig is grofweg onmogelijk met zowat 200.000 observaties... :(

Iemand die mij hieruit kan helpen?

Dus op het moment dat er één of meerdere variabelen (kolommen) een missing value heeft in één of meerdere rijen (jaren) ---> dan gewoon alle rijen m.b.t. de firm verwijderen... Het ziet er ongeveer zo uit:

[ afbeelding ]

Kan dit niet beter met Access?
pi_170456615
quote:
1s.gif Op maandag 24 april 2017 10:56 schreef Mishu het volgende:

[..]

Ik zou de term even googelen. Ik Google ook veel. Ik zou anders je dataset in SPSS voorbereiden en dan in het andere programma verder gaan.
Ben al zeker een week bezig om over deze drempel heen te komen. Ben de term die in 1 woord beschrijft wat ik wil, helaas, niet tegengekomen.... :(

Hoe het moet gebeuren, maakt mij niet veel uit.. zolang ik maar er in STATA mee verder kan gaan.
pi_170456625
quote:
1s.gif Op maandag 24 april 2017 11:43 schreef MCH het volgende:

[..]

Kan dit niet beter met Access?
Geen idee? Heb jij een idee? :P
pi_170457363
quote:
0s.gif Op maandag 24 april 2017 00:26 schreef Super-B het volgende:

[..]

Wat doet die functie dan precies? Het zou fijn zijn als ik in Excel/STATA een functie heb waarbij alle rows van de desbetreffende firm en dus de firm uit de data wordt verwijderd op het moment dat er missing values zijn.

Met Excel kan ik automatisch rows laten verwijderen op het moment dat er missing values zijn, maar dan verwijdert Excel alleen één of meerdere jaren van een bepaalde firm. Nog steeds zit de firm er dan in, met 'gebroken' jaren, bijvoorbeeld 1995-2010 en dan 2013-2016.... En ik wil dan gewoon dat dan de firm dan gewoon helemaal uit de sample wordt verwijderd.

Handmatig is grofweg onmogelijk met zowat 200.000 observaties... :(

Iemand die mij hieruit kan helpen?

Dus op het moment dat er één of meerdere variabelen (kolommen) een missing value heeft in één of meerdere rijen (jaren) ---> dan gewoon alle rijen m.b.t. de firm verwijderen... Het ziet er ongeveer zo uit:

[ afbeelding ]

Zou ik in een macro doen. En ik vermoed dat dit gemakkelijk in Python kan, maar dat ken ik niet goed genoeg om je verder te helpen.
Aldus.
pi_170458450
quote:
2s.gif Op maandag 24 april 2017 16:49 schreef Z het volgende:

[..]

Zou ik in een macro doen. En ik vermoed dat dit gemakkelijk in Python kan, maar dat ken ik niet goed genoeg om je verder te helpen.
Hoe heet het wat ik wil doen eigenlijk?
pi_170459615
quote:
1s.gif Op maandag 24 april 2017 17:56 schreef Super-B het volgende:

[..]

Hoe heet het wat ik wil doen eigenlijk?
Je moet in stappen denken bij een Excel macro. Iets van:
Stap 1: Maak een lijst van bedrijven met een missende waarden.
Stap 2: Loop door deze lijst.
Stap 3: Wis eerste regel van het eerste bedrijf.
Stap 4: Wis de volgende regel van het eerste bedrijf.
Stap 5: Ga door tot je geen regels meer vindt.
Stap 6: Volgende bedrijf

Macro's schrijven vereist wel enige oefening maar het is ook weer niet heel moeilijk. Je zou het even in het Excel-topic kunnen vragen. Daar zitten een aantal Excel-wizzards.

Ik heb met de Python-module voor SPSS wel eens kolommen met lege waarden verwijderd in SPSS, dat kan SPSS zelf niet. Ik kan me voorstellen dat Python ook jouw probleem op zou kunnen lossen. Maar geen idee hoe precies.
Aldus.
pi_170463725
quote:
2s.gif Op maandag 24 april 2017 18:54 schreef Z het volgende:

[..]

Je moet in stappen denken bij een Excel macro. Iets van:
Stap 1: Maak een lijst van bedrijven met een missende waarden.
Stap 2: Loop door deze lijst.
Stap 3: Wis eerste regel van het eerste bedrijf.
Stap 4: Wis de volgende regel van het eerste bedrijf.
Stap 5: Ga door tot je geen regels meer vindt.
Stap 6: Volgende bedrijf

Macro's schrijven vereist wel enige oefening maar het is ook weer niet heel moeilijk. Je zou het even in het Excel-topic kunnen vragen. Daar zitten een aantal Excel-wizzards.

Ik heb met de Python-module voor SPSS wel eens kolommen met lege waarden verwijderd in SPSS, dat kan SPSS zelf niet. Ik kan me voorstellen dat Python ook jouw probleem op zou kunnen lossen. Maar geen idee hoe precies.
Ik denk dat ik niet de eerste ben met een soortgelijke vraag. Echter kan ik het niet vinden op Google, maar dat is omdat ik niet zoek op de juiste trefwoorden helaas.
pi_170472615
Ik heb, tussendoor, nog een andere vraag:

Mijn Panel Data bestaat uit firm-year observaties die verschillende tijdsperioden hebben; Firm X bestaat uit observaties tussen 1962-2009, Firm Y uit 1982-2006, Firm Z dan weer 1965-2008 etc.

Moet ik ervoor zorgen dat ik een hoop firms/jaren uit de sample verwijder zodat de (overgebleven) firms in de sample allen dezelfde tijdsperiode hebben of maakt dat niet uit?

EDIT: wat googlen levert op dat dit fenomeen ''Unbalanced Panel Data'' heet. Wat is het beste om te doen? Of hoef ik daar niks aan te doen?
  woensdag 26 april 2017 @ 14:05:48 #187
310793 Mishu
Fok verslaafde
pi_170499060
Vraagje: klopt het dat factoranalyse vooral een exploratieve inductieve methode is?

Want je gaat gewoon kijken wat de afhankelijke variabele het beste verklaard en je selecteert dus niet de onafhankelijke variabelen vooraf op basis van de theorie die je vervolgens test? Toch?

Ander vraagje: ik gebruik ook een panelstudie. Ik heb in mijn ondertitel staan: door middel van een panelstudie. Maar de methode die ik gebruik is logistische regressie. Hoe staat dat nou in verhouding tot elkaar? Is de panelstudie mijn dataset en logistische regressie mijn methode? Wat zouden jullie in de ondertitel zetten: panelstudie of logistische regressie?

[ Bericht 39% gewijzigd door Mishu op 26-04-2017 14:59:15 ]
pi_170543170
quote:
1s.gif Op woensdag 26 april 2017 14:05 schreef Mishu het volgende:
Vraagje: klopt het dat factoranalyse vooral een exploratieve inductieve methode is?

Want je gaat gewoon kijken wat de afhankelijke variabele het beste verklaard en je selecteert dus niet de onafhankelijke variabelen vooraf op basis van de theorie die je vervolgens test? Toch?

Ander vraagje: ik gebruik ook een panelstudie. Ik heb in mijn ondertitel staan: door middel van een panelstudie. Maar de methode die ik gebruik is logistische regressie. Hoe staat dat nou in verhouding tot elkaar? Is de panelstudie mijn dataset en logistische regressie mijn methode? Wat zouden jullie in de ondertitel zetten: panelstudie of logistische regressie?
Voor wat betreft EFA (explorative factor analysis) klopt het. Je hebt ook een ander soort factor analyse, namelijk CFA (confirmative factor analysis). Hierbij specificeer je vooraf hoeveel factoren er zijn en hoe deze samenhangen met je variabelen. Je kan dan ook verschillende modellen toetsen en kijken welk voorspelde model het beste past. Hier kan je ook meer over vinden onder de naam structural equation modeling.

Je andere vraagje: ik zou het bij panelstudie houden, of eventueel longitudinaal design, want daar gaat het dan vooral om, de methode is minder relevant want logistische regressie kan je ook in ander soorten designs gebruiken. Overigens dacht ik dat je met logistische regressie geen herhaalde metingen kan doen, maar je bedoelt wellicht multilevel logistic regression?
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
  vrijdag 28 april 2017 @ 21:54:18 #189
310793 Mishu
Fok verslaafde
pi_170553053
Weg

[ Bericht 99% gewijzigd door Mishu op 28-04-2017 22:14:03 ]
  vrijdag 28 april 2017 @ 21:57:43 #190
310793 Mishu
Fok verslaafde
pi_170553171
quote:
0s.gif Op vrijdag 28 april 2017 14:44 schreef crossover het volgende:

[..]

Voor wat betreft EFA (explorative factor analysis) klopt het. Je hebt ook een ander soort factor analyse, namelijk CFA (confirmative factor analysis). Hierbij specificeer je vooraf hoeveel factoren er zijn en hoe deze samenhangen met je variabelen. Je kan dan ook verschillende modellen toetsen en kijken welk voorspelde model het beste past. Hier kan je ook meer over vinden onder de naam structural equation modeling.

Je andere vraagje: ik zou het bij panelstudie houden, of eventueel longitudinaal design, want daar gaat het dan vooral om, de methode is minder relevant want logistische regressie kan je ook in ander soorten designs gebruiken. Overigens dacht ik dat je met logistische regressie geen herhaalde metingen kan doen, maar je bedoelt wellicht multilevel logistic regression?
Ik dacht dat panelstudie betekende een samengestelde dataset. Ik doe inderdaad geen longitudinaal onderzoek. Aanpassen dus?

Ik ben echt zo bang om fouten te maken... gelukkig heb ik nog even.

Edit: het betreft wel een panel in de zin dat deze mensen als sinds 1990 deze vragenlijst krijgen. Voor mijn onderzoek zijn voor het eerst in 2015 extra vragen toegevoegd. En het is dus een samengestelde dataset van twee steekproeven.

Nog een vraagje: weet iemand in welke range de ideale steekproefgrootte van logistische regressie zit?

[ Bericht 3% gewijzigd door Mishu op 28-04-2017 22:14:42 ]
pi_170554087
-

[ Bericht 99% gewijzigd door Super-B op 29-04-2017 19:23:55 ]
  vrijdag 28 april 2017 @ 22:54:49 #192
310793 Mishu
Fok verslaafde
pi_170554731
quote:
0s.gif Op vrijdag 28 april 2017 22:28 schreef Super-B het volgende:
Daar ben ik weer met een STATA-gerelateerde vraag :P;

Ik heb voor mijn dataset stock-returns berekend aan de hand van de aandelenprijzen van het jaar daarvoor. Echter stuit ik nu tegen het probleem aan dat, in mijn panel-data, het eerste jaar van ieder bedrijf een missing value heeft voor de nieuwe variabele (Stock-returns).

Hoe moet ik hier nu mee omgaan in mijn verdere analyses zoals regressions e.d.? Het eerste jaar kan ik niet zomaar verwijderen/excluden, omdat het daaropvolgende jaar dan gewoon door STATA als het eerste jaar wordt geidentificeerd waardoor ik wel oneindig door kan gaan met excluden totdat ik geen data meer over heb...

Wat kan ik het beste doen?
Volgens mij heb je echt een heel moeilijk onderwerp _O- ik ben geen expert hierin dus sterkte. Ik weet wel inmiddels dat reguliere regressie enorm vastloopt als er missing values zijn.
pi_170555204
quote:
1s.gif Op vrijdag 28 april 2017 22:54 schreef Mishu het volgende:

[..]

Volgens mij heb je echt een heel moeilijk onderwerp _O- ik ben geen expert hierin dus sterkte. Ik weet wel inmiddels dat reguliere regressie enorm vastloopt als er missing values zijn.
Als ik mijn professor moet geloven, is het inderdaad een heel moeilijk onderwerp. Vooral voor een bachelor-thesis, laat staan een master-thesis.

Het is enorm motiverend en fascinerend, alleen soms is het méér dan irritant als het programmeren niet meezit.
  zaterdag 29 april 2017 @ 04:29:53 #194
376125 CapnIzzy
Geef aye voor de kapitein
pi_170558263
quote:
0s.gif Op vrijdag 28 april 2017 23:16 schreef Super-B het volgende:

[..]

Als ik mijn professor moet geloven, is het inderdaad een heel moeilijk onderwerp. Vooral voor een bachelor-thesis, laat staan een master-thesis.

Het is enorm motiverend en fascinerend, alleen soms is het méér dan irritant als het programmeren niet meezit.
Waarom doe je het dan?
Onoverwinnelijk/Rotterdam/Zeerover
https://www.playgwent.com/en/ - Official beta of Gwent: The Witcher Gard Game
pi_170564088
quote:
0s.gif Op vrijdag 28 april 2017 22:28 schreef Super-B het volgende:
Daar ben ik weer met een STATA-gerelateerde vraag :P;

Ik heb voor mijn dataset stock-returns berekend aan de hand van de aandelenprijzen van het jaar daarvoor. Echter stuit ik nu tegen het probleem aan dat, in mijn panel-data, het eerste jaar van ieder bedrijf een missing value heeft voor de nieuwe variabele (Stock-returns).

Hoe moet ik hier nu mee omgaan in mijn verdere analyses zoals regressions e.d.? Het eerste jaar kan ik niet zomaar verwijderen/excluden, omdat het daaropvolgende jaar dan gewoon door STATA als het eerste jaar wordt geidentificeerd waardoor ik wel oneindig door kan gaan met excluden totdat ik geen data meer over heb...

Wat kan ik het beste doen?
Je kunt toch eerst die returns uitrekenen en vervolgens het eerste jaar weggooien? Dan hou je een dataset over met vanaf het begin alle waarden.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_170565251
quote:
0s.gif Op vrijdag 28 april 2017 23:16 schreef Super-B het volgende:

[..]

Als ik mijn professor moet geloven, is het inderdaad een heel moeilijk onderwerp. Vooral voor een bachelor-thesis, laat staan een master-thesis.

Het is enorm motiverend en fascinerend, alleen soms is het méér dan irritant als het programmeren niet meezit.
quote:
1s.gif Op zaterdag 29 april 2017 04:29 schreef CapnIzzy het volgende:

[..]

Waarom doe je het dan?
  zaterdag 29 april 2017 @ 19:20:10 #197
376125 CapnIzzy
Geef aye voor de kapitein
pi_170569109
quote:
0s.gif Op zaterdag 29 april 2017 16:15 schreef Super-B het volgende:

[..]

[..]

Zo motiverend dat je je statitische deel van je scriptie moet navragen op een forum?
Onoverwinnelijk/Rotterdam/Zeerover
https://www.playgwent.com/en/ - Official beta of Gwent: The Witcher Gard Game
  zaterdag 29 april 2017 @ 20:22:26 #198
310793 Mishu
Fok verslaafde
pi_170570831
quote:
14s.gif Op zaterdag 29 april 2017 19:20 schreef CapnIzzy het volgende:

[..]

Zo motiverend dat je je statitische deel van je scriptie moet navragen op een forum?
Ik wist toen ik begon aan mijn scriptie ook niks van logistische regressie maar gelukkig was er genoeg over te vinden. :Y
pi_170788269
Hallo! Ik ben bezig met de afrondende fase van mijn thesis. Ik heb alle data binnen en ben bezig met analyse en schrijven, helaas loop ik vast met de statistiek. Ik heb via een Log10 transformatie de data van een test op twee meetmomenten T1 en T2 normaal verdeeld kunnen krijgen. Nu is de vraag hoe ik dit moet rapporteren.

We moeten schrijven volgens de PT Journal richtlijnen, waar staat dat je bij normaal verdeelde data de mean en sd moet geven, niet normaal de mediaan en range. Wat moet ik nu aangeven bij de getransformeerde data? Toch de mediaan en range, de mean en sd van de originele data of de mean en sd van de getransformeerde data? En moet ik in het laatste geval ook aangeven dat het om de geometric mean gaat?

Als ik op de getransformeerde data een t-toets uitvoer, wat moet ik dan gebruiken voor de effect size? Normaal gebruik ik een 95% BI, maar ik heb begrepen dat als je de 95% BI terug transformeerd, dat je dan alleen iets kan zeggen over de ratio.
pi_171287748
yoyo,
ook een vraagje over welke spss toets ik moet gebruiken :(

Ik heb een random 2x2 dus stel 1 of 2 en 3 of 4 (iemand kan 1,3 zijn of 1,4 of 2,3 of 2,4) en ik wil weten of bijvoorbeeld 1,3 significant hoger/lager scoort op een variabele (met een 5 puntsschaal) vergeleken met groep 2,3

is dat gewoon een 2 way anova?
'If you really think that the environment is less important than the economy try holding your breath while you count your money'
abonnement Unibet Coolblue
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')