abonnement Unibet Coolblue Bitvavo
pi_153327087
Bleh, shoot me.

Nog wat aan het zoeken en puzzelen geweest.

Is dit enigszins juist?:

Volgende syntax gedraaid:

1
2
3
4
5
mixed OrganizationalIdentification with DomainInvolvement RegionalAffiliation PerceivedCSR OrgPrestige OrgDistinctiveness ContactFrequency
/fixed = 
/method = ml
/random = intercept | subject(ClubID)
/print = solution.

Om te beoordelen of Multi Model wel nodig is aan de hand van intraclass correlation (ICC) op basis van de Clubs

Heb dit gedaan per stakeholder groep en volgende output:

Local Government:


0.071456 / (0.071456 + 0.855686) = 0.077 = 7.7%

Sponsors:


0.027478 / (0.027478 + 0.955224) = 0.027 = 2.7%

Fans:


0.031911 / (0.031911+0.795851) = 0.038 = 3.8%

Deze lijken me niet genoeg impact te hebben om over te gaan op Multi Model als ik per stakeholder groep de relaties wil testen met regressieanalyse?

Ook gekeken naar de -2 Log Likelihood van het model met de random component Club en zonder. Het is bij Local Government bijvoorbeeld 1138.8 ten opzichte van 1150.

Nu zag ik het volgende in een voorbeeld:

quote:
Chi square=203 026.467 - 196 165.706 = 6860.76, with 1 df, p=0.000. The outcome is highly significant and indicates that a two-level model is necessary.
Maar daar slaan ze stukje over toch? Chi2 is toch niet puur het verschil tussen de 2 getallen en dan bij df=1 kijken of het hoger is dan 3.84?

Chi2 is toch in mijn geval:

1
2
3
(1150-1138.8)[sup]2[/sup]
----------------------------------  = 0.109
                1150

Ofwel niet significant?

Welke is het in dit geval? Bij laatste bevestigd het dat one-level volstaat, maar als de waarde 11.2 is dan is het <0.01 en wijst dat op two-level

Voor hele sample is ICC voor clubs trouwens 15% maar dat lijkt me meer verklaard worden door de stakeholder groepen. Als ik bovenstaande ICC test met de stakeholder groep als random component dan is de ICC 28% dus dat is wel aanzienlijk met een p<0.001 bij Likelihood vergelijking welk getal ik ook pak.

Maar voor clubs dus twijfel
  donderdag 11 juni 2015 @ 09:32:23 #102
393148 superkimmi
Hakuna Matata
pi_153432714
Ik heb een vraagje. In mijn thesis doe ik onderzoek naar 'gerrymandering' in the USA (het herverdelen van kiesdistricten om een meerderheid te verkrijgen). ik heb zelf de data over gerrymandering verzameld tussen 1961 en nu en heb van mijn begeleider de data gekregen met wie er in welk district de verkiezingen heeft gewonnen en met hoeveel procent vd stemmen. Mijn eigen data werkt helemaal met cijfers (geen gerrymandering is een nul, wel een 1). Maar die van mijn begeleider werkt uiteraard met namen. Nu bestaat zijn data uit meet dan 20.000 records, dus handmatig overzetten in werkbare cijfers gaat een tijd duren. Is er nog een andere manier waarop ik met beide datasets een regressie kan uitvoeren (in eviews of SPSS, want daar heb ik ervaring mee. we hebben op de uni evt ook Stata) zonder dat ik alles handmatig in cijfers hoef te veranderen.

Het gaat dus vooral om het transformeren van de begeleider zijn data in iets wat SPSS of eviews begrijpt. Als ik dat eenmaal heb lukt het uitvoeren van een regressie wel. Ik kan dit ook aan mijn begeleider vragen, maar die is er tot maandag niet meer en maandag heb ik een afspraak met hem waarbij ik eigenlijk hoop al wat resultaten te kunnen overleggen.
life is what happens to you, while you're busy making other plans.
pi_153439497
quote:
0s.gif Op donderdag 11 juni 2015 09:32 schreef superkimmi het volgende:
Ik heb een vraagje. In mijn thesis doe ik onderzoek naar 'gerrymandering' in the USA (het herverdelen van kiesdistricten om een meerderheid te verkrijgen). ik heb zelf de data over gerrymandering verzameld tussen 1961 en nu en heb van mijn begeleider de data gekregen met wie er in welk district de verkiezingen heeft gewonnen en met hoeveel procent vd stemmen. Mijn eigen data werkt helemaal met cijfers (geen gerrymandering is een nul, wel een 1). Maar die van mijn begeleider werkt uiteraard met namen. Nu bestaat zijn data uit meet dan 20.000 records, dus handmatig overzetten in werkbare cijfers gaat een tijd duren. Is er nog een andere manier waarop ik met beide datasets een regressie kan uitvoeren (in eviews of SPSS, want daar heb ik ervaring mee. we hebben op de uni evt ook Stata) zonder dat ik alles handmatig in cijfers hoef te veranderen.

Het gaat dus vooral om het transformeren van de begeleider zijn data in iets wat SPSS of eviews begrijpt. Als ik dat eenmaal heb lukt het uitvoeren van een regressie wel. Ik kan dit ook aan mijn begeleider vragen, maar die is er tot maandag niet meer en maandag heb ik een afspraak met hem waarbij ik eigenlijk hoop al wat resultaten te kunnen overleggen.
Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  donderdag 11 juni 2015 @ 14:15:53 #104
393148 superkimmi
Hakuna Matata
pi_153439575
quote:
0s.gif Op donderdag 11 juni 2015 14:13 schreef wimjongil het volgende:

[..]

Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.
Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.
life is what happens to you, while you're busy making other plans.
pi_153439798
quote:
0s.gif Op donderdag 11 juni 2015 14:15 schreef superkimmi het volgende:

[..]

Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.
Ah ja, dat dacht ik al.

Voorbeeld in R pseudocode:
1
2
3
4
5
6
7
8
9
10
11
data$nieuwekolom <- NA
for(i in 1:20000){
 for(j in 1:i){
  if(naam[i] == naam[j]{
   data$nieuwekolom[i] = j
  }
  else{
    data$nieuwekolom[i] = i
   }
 }
}

Aan zoiets moet je denken. Die if statement moet je even mee opletten want strings vergelijken gaat niet zomaar.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  donderdag 11 juni 2015 @ 14:30:13 #106
393148 superkimmi
Hakuna Matata
pi_153439970
Ok dankje :) Het is fijn om te weten dat er in ieder geval methodes bestaan om er mee te puzzelen. Alles handmatig leek me een tikkeltje overdreven.
life is what happens to you, while you're busy making other plans.
pi_153512625
Dag mensen,

kunnen jullie mij helpen? Ik wil (denk ik) een logregressie uitvoeren. Hierbij is de log de dependent variable, oftewel de abnormal return (abnormalret). thirtysix, ninetysix, hundredfiftysix en hunfiftysixPLUS zijn dummy variabelen die gelijk staan aan 1 indien de waardes van tenure respectievelijk 0-35, 36-95, 96-155 en 156+ zijn. Ten slotte is er ook nog de marktcapitalisatie die ik als variabele in wil voeren in het model.

Mijn model moet worden: logabnormalret = b1*thirtysix + b2*ninetysix + b3*hundredfiftysix + b4*hunfiftysixPLUS + b5*marketcap.

Hoe doe ik dit? Ik probeer ten eerste de normale abnormalret in mijn edit tabel te replacen met logabnormalret, maar volgens mij kan logabnormalret niet bestaan zonder abnormalret? Ten tweede wil ik tenure niet in mijn model maar moet ik het volgens mij wel invoeren in de edit tabel omdat de dummyvariabelen anders niet werken?

Ik heb net geprobeerd regressies te doen maar ik kreeg steeds de melding dat er geen observaties waren? Bij die regressie probeerde ik logabnormal ret te regresseren op de 4 dummies en marketcap.

Kunnen jullie mij helpen? Ben een zieke STATA noob en weet niet wat wel en niet kan, en wat ik fout doe. Vriendelijke groet.

http://i.imgur.com/ckQYiow.png
pi_153513129
Het heeft met multicollinearity te maken maar zelfs als ik dingen verander ervaar ik hetzelfde!!

http://i.imgur.com/RlIKye9.png

Zou de formule: log(abnormal return) = constant + b1*tenure0-3jaar + b2*tenure13+jaar + b3*marketcap dit oplossen? Omdat er dan niet per se een dummy variabele is? Of, omdat de constant dan eigenlijk de waarde van de vorige dummy variabeles die nu zijn verdwenen meeneemt (3-8 jaar en 8-13 jaar) krijg ik nog steeds hetzelfde probleem? Zo niet, verklaart de constante dan in het nieuwe geval het effect van 3-13 jaar tenure?

[ Bericht 52% gewijzigd door haha94boem op 14-06-2015 03:13:54 ]
pi_153514476
Het is bijna altijd slim om de constant er gewoon in te laten. Dit gebeurt automatisch in stata.
Daarnaast is het slim om eerst de dummy variabelen te creëren voordat je je model schat.


Als je abnormalret in je dataset hebt en je wilt de log is dit de syntax:
gen logabnormalret=Log(abnormalret)
pi_153514494
Ik zie je screenshot nu pas, en je probleem zit hem waarschijnlijk in het lage aantal observaties. Daardoor is er geen variantie tussen observatie en kan er niks geschat worden.
In dit geval is dus een regressie geen optie.
pi_153519588
Die foutmelding 'no observations' heeft er waarschijnlijk mee te maken dat stata altijd alleen observaties meeneemt zonder missings. Misschien wil je de missings in een 0 veranderen? Tenminste, als dat dummies zijn.
Overigens kan je ook originele variabelen gebruiken en in er 'ib2.' voor zetten (als de tweede categorie je referentie is, anders ib1. of ib3 of wat dan ook).
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_153524946
Dag mensen,

Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.

In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png

Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
pi_153526023
quote:
0s.gif Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,

Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.

In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png

Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Probeer gen logabnormalreturn=ln(abnormalreturn)
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_153526082
quote:
0s.gif Op zondag 14 juni 2015 18:44 schreef crossover het volgende:

[..]

Probeer gen logabnormalreturn=ln(abnormalreturn)
Gebeurt hetzelfde, helaas.
pi_153528167
quote:
0s.gif Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,

Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.

In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png

Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
pi_153528656
quote:
0s.gif Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:

[..]

Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Bedankt.

Weet je misschien het antwoord op de volgende vraag: als ik van mijn dummyvariabelen een log maak, dus b1*log(tenure0-3years) ipv b1*tenure0-3years, krijg ik dan een correcte interpretatie? Als ik ln(1) op mijn rekenmachine intype krijg ik namelijk 0, dus klopt mijn stata model dan wel?
pi_153542865
quote:
0s.gif Op zondag 14 juni 2015 20:12 schreef haha94boem het volgende:

[..]

Bedankt.

Weet je misschien het antwoord op de volgende vraag: als ik van mijn dummyvariabelen een log maak, dus b1*log(tenure0-3years) ipv b1*tenure0-3years, krijg ik dan een correcte interpretatie? Als ik ln(1) op mijn rekenmachine intype krijg ik namelijk 0, dus klopt mijn stata model dan wel?
Een doube log specificatie betekent dat de beta's geinterpreteerd kunnen worden als point elasticities. Met een dummy variable is dit niet echt logisch, gezien dit discrete waarden zijn, dus 0 of 1. Met waarden die continu zijn is dit een stuk logischer.
Je moet je afvragen waarom je een log log specificatie wilt doen, en of dit thereotisch gezien ergens op slaat.
pi_153545400
quote:
0s.gif Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:

[..]

Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Onjuist, dat is wel mogelijk.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_153548467
quote:
14s.gif Op maandag 15 juni 2015 12:15 schreef wimjongil het volgende:

[..]

Onjuist, dat is wel mogelijk.
Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja. :)
pi_153552890
quote:
0s.gif Op maandag 15 juni 2015 14:18 schreef Banaanensuiker het volgende:

[..]

Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja. :)
Dat is ook niet correct. Het natuurlijk logartime van een negatief is namelijk wel gedefinieerd, te weten als een complex getal.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
  maandag 15 juni 2015 @ 23:04:52 #121
268491 fetX
Al bezig met volgend seizoen
pi_153566095
Ha iedereen!

Ik loop behoorlijk vast met SPSS. Het gaat om het volgende:

Mijn enquete is (voornamelijk) op Likert-schaal afgenomen. De y = gemiddelde behaalde cijfer op Likert schaal:

1 = <4,
2 = 4,1 t/m 5
3 = 5,1 t/m 6
4 = 6,1-7
etc.

Al onze x'en zijn ook op Likert schaal afgenomen (van 0=helemaal oneens naar 5=helemaal eens)

Volgens mijn docent mag ik gewoon een Likert-schaal op interval/ratio niveau gebruiken.
Ik heb de y en alle x'en op schaalniveau ingesteld en (na SomScores te hebben gemaakt van meerdere variabelen) deze ingevoerd en getest voor lineariteit en normaliteit. De bijlagen geven mijn resultaten weer. Klopt het dat ik iets totaal verkeerd heb gedaan? En zo niet, op welke toets moet ik nu overstappen?

http://nl.tinypic.com/r/b665gj/8
http://nl.tinypic.com/r/1zf78tg/8
http://nl.tinypic.com/r/260er9i/8
pi_153583148
Even een vraagje. Ik heb zo'n 200 respondenten een kennisquiz laten afnemen. Die resultaten heb ik verwerkt en ik wil ze nu verdelen in drie categoriëen. Hoog scorend, laagscorend en gemiddeld scorend.

Nu is mijn vraag: hoe verdeel ik die. Doe ik dat zo gelijk mogelijk (dus 3 ongeveer even grote groepen) of moet ik dan werken met standaarddeviaties. Want ook dat heb ik ergens gelezen in een artikel.

Ter verduidelijking, die tweede methode is als volgt:

LOW 0 tot (median-standaarddeviatie)
MED (median-standaarddeviatie) tot (median+standaarddeviatie)
HIGH (median+standaarddeviatie) tot 10

Die drie groepen wil ik dan constant met elkaar vergelijken met andere resultaten uit mijn enquete.
Ik weet dus wel hoe ik die groepen verdeel, maar wil graag weten wat beter is.
pi_153621626
quote:
0s.gif Op dinsdag 16 juni 2015 14:45 schreef Rumille het volgende:
Even een vraagje. Ik heb zo'n 200 respondenten een kennisquiz laten afnemen. Die resultaten heb ik verwerkt en ik wil ze nu verdelen in drie categoriëen. Hoog scorend, laagscorend en gemiddeld scorend.

Nu is mijn vraag: hoe verdeel ik die. Doe ik dat zo gelijk mogelijk (dus 3 ongeveer even grote groepen) of moet ik dan werken met standaarddeviaties. Want ook dat heb ik ergens gelezen in een artikel.

Ter verduidelijking, die tweede methode is als volgt:

LOW 0 tot (median-standaarddeviatie)
MED (median-standaarddeviatie) tot (median+standaarddeviatie)
HIGH (median+standaarddeviatie) tot 10

Die drie groepen wil ik dan constant met elkaar vergelijken met andere resultaten uit mijn enquete.
Ik weet dus wel hoe ik die groepen verdeel, maar wil graag weten wat beter is.
Dan moet je splitsen op het 33ste percentiel en 66e percentiel.
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_153648334
quote:
0s.gif Op maandag 15 juni 2015 23:04 schreef fetX het volgende:
Ha iedereen!

Ik loop behoorlijk vast met SPSS. Het gaat om het volgende:

Mijn enquete is (voornamelijk) op Likert-schaal afgenomen. De y = gemiddelde behaalde cijfer op Likert schaal:

1 = <4,
2 = 4,1 t/m 5
3 = 5,1 t/m 6
4 = 6,1-7
etc.

Al onze x'en zijn ook op Likert schaal afgenomen (van 0=helemaal oneens naar 5=helemaal eens)

Volgens mijn docent mag ik gewoon een Likert-schaal op interval/ratio niveau gebruiken.
Ik heb de y en alle x'en op schaalniveau ingesteld en (na SomScores te hebben gemaakt van meerdere variabelen) deze ingevoerd en getest voor lineariteit en normaliteit. De bijlagen geven mijn resultaten weer. Klopt het dat ik iets totaal verkeerd heb gedaan? En zo niet, op welke toets moet ik nu overstappen?

http://nl.tinypic.com/r/b665gj/8
http://nl.tinypic.com/r/1zf78tg/8
http://nl.tinypic.com/r/260er9i/8
In je tweede foto (en trouwens ook je derde) zie je dat je verdeling sterk afwijkt van een normale verdeling. Daarmee schendt je een assumptie van regressie. Je kan eens proberen om alles te hercoderen naar een log schaal
'Expand my brain, learning juice!'
&lt;a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank"&gt;Last.fm&lt;/a&gt;
pi_153773824
Eerdere vragen van mij zijn grotendeels wel besproken met begeleider inmiddels. Nu even een simpele (denk ik) vraag die wat makkelijker beantwoord kan worden gok ik:

In m'n theoretisch framework heb ik 6 predictors/antecedenten. Ik gebruik multiple regression. Er zijn guidelines die zeggen van bv 20 cases per predictor variable nodig. In dit geval dus 120.

Maar als ik nu in SPSS bij de regressie nog bv 3 dummies erbij opneem (waarvan 1 als reference gebruikt zal worden) en 18 interacties (de 6 antecedenten elk keer de 3 dummies) waarvan 6 als reference, en ook nog 3 controle variabelen...

.. Dan geeft SPSS weer dat ik 23 predictors heb (telt reference dus niet mee)

Gaat diezelfde guideline dan op en moet ik dan idealiter 460 cases hebben? Of tellen sommige niet mee zoals bijvoorbeeld interactie termen? Of mss zelfs zo dat ik de reference van de dummies er ook nog bij moet tellen omdat ie daar berekeningen voor maakt en ik 30 x 20 = 600 cases moet hebben?
abonnement Unibet Coolblue Bitvavo
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')