De standaard deviatie geeft iets aan over de spreiding. Zo zou je een gemiddelde van 1.8 kunnen hebben op je schaal met een SD van bijna 0 (iedereen zegt 2 een paar zeggen 1) of een enorme hoge SD (veel mensen zeggen 4 of 5, meeste zeggen 1 of 2). Ik zou hem dus altijd rapporterenquote:Op woensdag 3 juni 2015 13:45 schreef Tobi-wan het volgende:
Ben nu druk bezig met mijn bijlage in orde te maken. Aanstaande maandag mijn scriptie inleveren![]()
Heb bijna alleen gebruik gemaakt van schalen waardoor ik ordinale variabelen heb. Is het dan interessant om de standaarddeviatie er bij te zetten of kan ik dat beter weg laten. Ze zitten allemaal tussen den 0,8 en 1 wat volgens mij komt omdat de antwoorden altijd 1, 2, 3, 4 of 5 zijn.
Daarnaast heb ik niet een hele grote populatie. Volgens mij verteld de standaarddeviatie mij niet zoveel...
Edit: volgens mij moet std. dev. er altijd bij als je met gemiddeldes werkt.
Bedankt! Het is inderdaad wel nuttige informatie. Van al die cijfers wordt ik af een toe een beetje duizelig en dan ontgaat het logisch nadenken mij enigszins.quote:Op woensdag 3 juni 2015 14:12 schreef oompaloompa het volgende:
[..]
De standaard deviatie geeft iets aan over de spreiding. Zo zou je een gemiddelde van 1.8 kunnen hebben op je schaal met een SD van bijna 0 (iedereen zegt 2 een paar zeggen 1) of een enorme hoge SD (veel mensen zeggen 4 of 5, meeste zeggen 1 of 2). Ik zou hem dus altijd rapporteren
Ik heb wel wat kennis van R, maar niet zo heel veel/diepgaande. Ik wil wel proberen je te helpen, maar ik kan niks garanderen (ik ben een beetje je long shot). PM/DM mag altijd.quote:Op donderdag 4 juni 2015 08:04 schreef Banaanensuiker het volgende:
Ik heb eerder in dit topic om hulp gevraagd bij het implementeren van een bepaalde procedure en geen hulp gehad, maar ik heb van de originele auteur de code gekregen. Helaas wel in TSP, een gedateerd programma, dus nu is het zaak om deze code om te schrijven naar R of Stata. Heeft iemand kennis van TSP en R/Stata die mij hierbij kan helpen? Of iemand die mij een pb kan sturen met een link naar TSP?
Dat ziet er best nice uit! Hoe kom je daar terecht? Lijkt mij als econometriestudent wel een leuk bijbaantje.quote:Op vrijdag 5 juni 2015 14:25 schreef Sarasi het volgende:
[..]
Overigens een aanstelling gekregen bij de methodology shop op de uni.Dus deze zomer even wat extra inlezen en misschien nog wat extra bijleren (Stata bijvoorbeeld) en hopelijk gedurende volgend jaar ook veel bijleren waar ik tijdens m'n eigen scriptie ook veel aan heb.
Is hier alleen voor psychologie en sociologie, via de vacaturebank in BlackBoard.quote:Op vrijdag 5 juni 2015 15:03 schreef wimjongil het volgende:
[..]
Dat ziet er best nice uit! Hoe kom je daar terecht? Lijkt mij als econometriestudent wel een leuk bijbaantje.
Ik heb alleen kennis van R in een aantal specifieke domeinen. Heb wel thuis op mn HD een aantal goede tutorials/courses staan, weet niet of je er iets aan hebt maar deel ze graag met je.quote:Op donderdag 4 juni 2015 08:04 schreef Banaanensuiker het volgende:
Ik heb eerder in dit topic om hulp gevraagd bij het implementeren van een bepaalde procedure en geen hulp gehad, maar ik heb van de originele auteur de code gekregen. Helaas wel in TSP, een gedateerd programma, dus nu is het zaak om deze code om te schrijven naar R of Stata. Heeft iemand kennis van TSP en R/Stata die mij hierbij kan helpen? Of iemand die mij een pb kan sturen met een link naar TSP?
Gefeliciteerd!quote:Op vrijdag 5 juni 2015 14:25 schreef Sarasi het volgende:
[..]
Ik heb wel wat kennis van R, maar niet zo heel veel/diepgaande. Ik wil wel proberen je te helpen, maar ik kan niks garanderen (ik ben een beetje je long shot). PM/DM mag altijd.
Overigens een aanstelling gekregen bij de methodology shop op de uni.Dus deze zomer even wat extra inlezen en misschien nog wat extra bijleren (Stata bijvoorbeeld) en hopelijk gedurende volgend jaar ook veel bijleren waar ik tijdens m'n eigen scriptie ook veel aan heb.
Klinkt als een multilevel model.quote:Op vrijdag 5 juni 2015 14:50 schreef VacaLoca het volgende:
Bleh, zit even vast.
Ik onderzoek hoe een zestal antecedenten in relatie staat tot een afhankelijke variabele. De afhankelijke variabele is Organizational Identification - hoe mensen zich identificeren met een organisatie. Komt uiteindelijk dus een regressie analyse aan te pas, en een standaard regressie analyse heb ik ook al wel gehad in de studie.
Maar zitten wat haken en ogen aan bij mij:
- Ik richt mij op alle betaald voetbalclubs *Eredivisie en Jupiler)
- Ik maak een vergelijking tussen 3 stakeholder groepen (supporters, sponsoren en lokale politiek)
Van supporters heb ik van 33 clubs respondenten. Maar van PSV heb ik er bijvoorbeeld 380, van Ajax 140, van Vitesse 120 en van NEC 110... maar van kleine clubs als een Helmond Sport maar 1 bijvoorbeeld. In totaal heb ik er 1132
Van sponsoren heb ik er een stuk of 40 van Heerenveen, 30 van Willem II, 15 van FC Twente en voor aantal andere clubs rond de 10 elk. In totaal 323 sponsoren als respondent. Maar ik heb er 0 voor PSV en Ajax, die bij supporters het gros van de respondenten vormen.
Lokale politiek in de vorm van gemeenteraadsleden heb ik 10 a 15 respondenten voor elke gemeente, in totaal 417 respondenten.
Origineel was het idee om voor 1 club het onderzoek te doen. Maar omdat je van sponsoren en gemeenteraadsleden maar een tiental respondenten zou krijgen besloten om meer clubs bijeen te pakken en 'een betaald voetbalclub' het onderwerp te maken ipv bijvoorbeeld 'Vitesse' of 'Ajax'. Want voor multiple regression liefst 20 respondenten per onafhankelijke variabele, in mijn geval dus 120.
Nu zit ik dus met de volgende dingen:
- Mbt poolen van de data: kan je het zomaar allemaal bij elkaar gooien of zijn daar methodes voor en moet je gewichten er aan hangen oid? Kan via google niet echt vinden.
- Ik vergelijk dus 3 stakeholder groepen; als ik items ga verwijderen op basis van Reliability test (Cronbach alpha) en Discriminant validity (Factor analyse, dubbelladers en structuur) moet ik dan hetzelfde verwijderen bij elke groep? Dus als item X een dubbellader is bij de Supporters, maar niet bij de Sponsoren, dan wel bij beiden weghalen zodat beide modellen gelijk zijn aan elkaar als je gaat vergelijken, of wel op maat maken per groep?
- Supporters identificeren zich sws al vrij snel met hun club, en het is dus enigszins skewed. Is hier voor dit specifieke geval een goed remedie voor? Zou ik ook bijvoorbeeld gezien de grote sample de cases zodanig selecteren dat de afhankelijke variabele normaal verdeeld is?
- Als ik de drie groepen met elkaar vergelijk dan pak ik nu bijvoorbeeld voor lokale politiek Willem II, Vitesse, AZ, Twente en Heerenveen samen zodat ik er voldoende voor regression analyse heb én ik voor deze clubs ook voldoende sponsoren en fans heb. Maar de verhoudingen zijn wel totaal anders per stakeholder groep voor deze clubs. Waar het voor lokale politiek ongeveer 20,20,20,20,20 is, is het voor sponsoren iets van 35, 25, 15, 15, 10 en voor fans soortgelijke verdeling als sponsoren maar dan andere volgorde. Moeten deze verhoudingen gelijk zijn?
Moeten misschien zelfs de absolute aantallen gelijk zijn? Ik vergelijk uiteindelijk de standardized B van de onafhankelijke variabelen in de groepen. Daarnaast heb ik al wel variabele gemaakt die grootte van de club weergeeft waarvoor dus gecontroleerd kan worden.
Bleh, warrig verhaal aan het worden. In kort: ik zit met multiple regression met pooled data en met drie samples die vergeleken moeten worden; best practice?
Niet helemaal waar:quote:Op vrijdag 5 juni 2015 15:15 schreef Sarasi het volgende:
[..]
Is hier alleen voor psychologie en sociologie, via de vacaturebank in BlackBoard.
Maargoed, Nestor maar in de gaten houden dus.quote:Omdat de Methodologiewinkel een dienst is van de GMW faculteit krijgen GMW studenten in drukke periodes voorrang op studenten van andere faculteiten.
Dat is voor hulp, niet voor sollicitanten.quote:Op vrijdag 5 juni 2015 16:58 schreef wimjongil het volgende:
[..]
Niet helemaal waar:
[..]
Maargoed, Nestor maar in de gaten houden dus.
Aha, op die fiets. Je zin was dubbelzinnig.quote:Op vrijdag 5 juni 2015 16:59 schreef Sarasi het volgende:
[..]
Dat is voor hulp, niet voor sollicitanten.
quote:Op vrijdag 5 juni 2015 16:27 schreef oompaloompa het volgende:
[..]
Ik heb alleen kennis van R in een aantal specifieke domeinen. Heb wel thuis op mn HD een aantal goede tutorials/courses staan, weet niet of je er iets aan hebt maar deel ze graag met je.
Hebben jullie kennis van bootstrappen? Het gaat om het bootstrappen van een test statistic (Wald test in dit geval).quote:Op vrijdag 5 juni 2015 14:25 schreef Sarasi het volgende:
[..]
Ik heb wel wat kennis van R, maar niet zo heel veel/diepgaande. Ik wil wel proberen je te helpen, maar ik kan niks garanderen (ik ben een beetje je long shot). PM/DM mag altijd.
Overigens een aanstelling gekregen bij de methodology shop op de uni.Dus deze zomer even wat extra inlezen en misschien nog wat extra bijleren (Stata bijvoorbeeld) en hopelijk gedurende volgend jaar ook veel bijleren waar ik tijdens m'n eigen scriptie ook veel aan heb.
Sorry voor de onduidelijkheid.quote:Op vrijdag 5 juni 2015 17:34 schreef wimjongil het volgende:
[..]
Aha, op die fiets. Je zin was dubbelzinnig.
Nee, sorry.quote:Op vrijdag 5 juni 2015 17:34 schreef Banaanensuiker het volgende:
[..]
[..]
Hebben jullie kennis van bootstrappen? Het gaat om het bootstrappen van een test statistic (Wald test in dit geval).
En gefeliciteerd met je aanstelling, Sarasi.
Ja maar alleen in het abstracte / als concept, verder alleen gebruik gemaakt bij mediatie-analyses.quote:Op vrijdag 5 juni 2015 17:34 schreef Banaanensuiker het volgende:
[..]
[..]
Hebben jullie kennis van bootstrappen? Het gaat om het bootstrappen van een test statistic (Wald test in dit geval).
En gefeliciteerd met je aanstelling, Sarasi.
Nou, nu verschillende dingen gekeken en gelezen er over. Steeds maakte begin uitleg me enthousiast aangezien het leek te behandelen wat ik nodig heb, maar dan gaat het al snel voorbij wat ik ooit geleerd heb met syntax en andere statistiek tools etc.quote:Op vrijdag 5 juni 2015 16:32 schreef oompaloompa het volgende:
[..]
Gefeliciteerd!
[..]
Klinkt als een multilevel model.
Is essentie komt het er op neer dat je je data een soort van trapsgewijs bekijkt.
Dus al je datapunt splits je eerst op over de verschillende clubs (waarbij je het effect van club berekent), daarna kun je binnen de clubs het effect van supporter / sponsor / etc. bekijken.
Het is niet heel ingewikkeld om te doen, maar ook niet het allergemakkelijkste.
Kijk anders even met google of zo of je denkt dat dit voor je kan werken, en kom dan terug?
Tegen de skewness zou je een logtransformatie kunnen gebruiken, maar de meeste toetsen zijn vrij robust zolang je n hoger dan 30 is, als het je uitkomst al beinvloedt zal dat enorm in de marge zijn dus ik zou me daar denk ik niet te druk om maken.
Qua concept is het inderdaad wat ik wil doen. Ik quote even een eerdere post van mij zodat je direct kan zien of je er wat mee kan:quote:Op vrijdag 5 juni 2015 18:26 schreef oompaloompa het volgende:
[..]
Ja maar alleen in het abstracte / als concept, verder alleen gebruik gemaakt bij mediatie-analyses.
In principe komt het gewoon neer op data genereren van een bestaande dataset, analyse op uitvoeren, en dit 100.000 (of hoeveel je wilt) keer doen om een betrouwbaardere statistic te krijgen toch? Ik weet niet of jij het voor hetzelfde wilt gebruiken als hoe ik het ken, heb geen ervaring met het gebruik bij een Wald-test maar als het conceptueel een beetje vergelijkbaar is kan ik misschien nog iets nuttigs zeggen
quote:Op vrijdag 29 mei 2015 11:30 schreef Banaanensuiker het volgende:
Heeft iemand hier verstand van bootstrapping met doel het ontwikkelen van observatie specifieke kritieke Wald scores? Ik probeer dit in combinatie met een SUR.
Deze procedure probeer ik na te bootsen:
[ afbeelding ]
[ afbeelding ]
Met dit systeem:
[ afbeelding ]
De voorbeelden die vaak gebruikt worden is idd longitudinaal onderzoek, daar zijn de jaren meetpunten, en is de "groep" het individu. Dus per individu heb je x-aantal meetpunten. Bij jou zou het individu de club zijn, en heb je per club een aantal meetpunten (binding van sponsoren en binding van supporters).quote:Op vrijdag 5 juni 2015 19:11 schreef VacaLoca het volgende:
[..]
Nou, nu verschillende dingen gekeken en gelezen er over. Steeds maakte begin uitleg me enthousiast aangezien het leek te behandelen wat ik nodig heb, maar dan gaat het al snel voorbij wat ik ooit geleerd heb met syntax en andere statistiek tools etc.
Ook lijkt het vooral te concentreren op longitudinaal onderzoek waar bijvoorbeeld leeftijd als variabele gemeten is om de 2 jaar. Daar is wel voorbeeld van voor SPSS met Mixed Models maar daar heb je dan bv age1 age2 age3 als variabelen.. lijkt niet te zijn wat ik moet hebben.
/lost
Ik kom van psy en ben heel erg slecht in het lezen van wiskundige noteringen (quote:Op vrijdag 5 juni 2015 21:00 schreef Banaanensuiker het volgende:
[..]
Qua concept is het inderdaad wat ik wil doen. Ik quote even een eerdere post van mij zodat je direct kan zien of je er wat mee kan:
[..]
Business Administration aan Radboud, master thesis. Meer dan de meest basic multiple regression hebben we niet gehad. Bespreek de analyse komende week pas voor het eerst met begeleider (in totaal maar 5 contacturen gehad hooguit) maar over 2 weken is deadline scriptie al.quote:Op vrijdag 5 juni 2015 23:09 schreef oompaloompa het volgende:
[..]
De voorbeelden die vaak gebruikt worden is idd longitudinaal onderzoek, daar zijn de jaren meetpunten, en is de "groep" het individu. Dus per individu heb je x-aantal meetpunten. Bij jou zou het individu de club zijn, en heb je per club een aantal meetpunten (binding van sponsoren en binding van supporters).
Het is niet extreem moeilijk, maar misschien wel te moeilijk om duidelijk hier zo op een forum uit te leggen.
Voor welke uni / opleiding / sciptie(?) is het? Misschien kun je er mee wegkomen een gemakkelijker maar minder correct model te gebruiken, of als heel belangrijk zouden ze mensen moeten hebben die je er mee kunnen helpen (lijkt me). Het is, weet ik vrij zeker, de beste oplossing, maar als dit ver buiten wat je geleerd hebt gaat zou het vreemd zijn als ze van je verwachten dit gewoon even te doen.
Ik ga het op een andere manier doen; samen met mijn supervisor besloten dat er in mijn geval efficiëntere tijdsbesteding is. In ieder geval bedankt voor je bereidheid tot helpen.quote:Op vrijdag 5 juni 2015 23:09 schreef oompaloompa het volgende:
[..]
Ik kom van psy en ben heel erg slecht in het lezen van wiskundige noteringen (ik weet het...) dus daar moet ik even voor gaan zitten. Kom je wel tot een bepaald punt of gaat het in het begin al mis?
Hoef je niet te testen of de effecten van de fans / sponsors / local government sig van elkaar verschillen? Dat maakt alles al een heel stuk gemakkelijker.quote:Op vrijdag 5 juni 2015 23:48 schreef VacaLoca het volgende:
[..]
Business Administration aan Radboud, master thesis. Meer dan de meest basic multiple regression hebben we niet gehad. Bespreek de analyse komende week pas voor het eerst met begeleider (in totaal maar 5 contacturen gehad hooguit) maar over 2 weken is deadline scriptie al.
Wat je nu schetst neemt dus al de stakeholder groepen mee. Vergelijking tussen stakeholder groepen is echter aparte hypothese. Ik test ook relaties onafhankelijke variabelen met afhankelijk per stakeholder groep apart.
Even een versimpelde mockup van de data:
[ afbeelding ]
(In werkelijkheid 6 onafhankelijke en 1 afhankelijke en dus voor veel clubs)
Met multiple regression dus hypotheses testen
1a: Independent1 has a positive effect on Dependent for Fans
1b: Independent1 has a positive effect on Dependent for Sponsors
1c: Independent1 has a positive effect on Dependent for Local Government (Gemeente)
2a: Independent2 has a positive effect on Dependent for Fans
2b: Independent2 has a positive effect on Dependent for Sponsors
2c: Independent2 has a positive effect on Dependent for Local Government (Gemeente)
En dan aparte hypothese:
The effects of the different antecedents of Dependent differ among stakeholder groups
Waarbij in soortgelijk onderzoek de standardized effect sizes (B) vergeleken werden.
Maar als je mijn geval bekijkt.. in voorbeelden gebruiken ze Age1, Age2, Age3 bijvoorbeeld. Dat is 1 item over 3 metingen. Als ik 1 item had gehad, laten we ook even leeftijd nemen. Dan zou ik dus 3 variabelen moeten hebben; Age_Sponsor, Age_Fan, Age_Gemeente en dan in SPSS met Data > Restructure die variabelen moeten transposen.
Maar in mijn mockup voorbeeld zou ik dan IND1_Item1_Sponsor, IND1_item1_Fan, IND1_Item2_Gemeente etc moeten maken? Of voor de recoded scale? (IND1 met MEAN(item1,item2) en IND2) en dan IND1_Fan, IND1_Sponsor, IND1_Gemeente IND2_Fan etc?
Krijg er nog niet echt vat op omdat ik overal maar de helft van de uitleg lees en de rest in syntax is wat ik nooit gehad heb.
Weet niet hoeveel ze van me verwachten, die vorig jaar zijn afgestudeerd hiermee hadden het wel met simpele multiple regression gedaan maar die hadden geen pooled data. Veel meer dan dat ik het wel op mijn manier kon doen (meerdere clubs om sample te vergroten) dmv poolen heb ik niet meegekregen tot dusver. Maar heb het idee dat ik niet echt statistisch verantwoord bezig ben met gewooon de multiple regression draaien met respondenten van alle clubs op 1 hoop.
Thanks voor antwoorden btw!
Dat moet wel, maar de eerste hypotheses meten de relaties per stakeholder groep apart. Kijken of effecten sig verschillen doe ik dus ook maar voor een latere hypothese (maar wat wel de hoofdvraag is zo'n beetje van het onderzoek - of ze sig verschillen)quote:Op zaterdag 6 juni 2015 15:29 schreef oompaloompa het volgende:
[..]
Hoef je niet te testen of de effecten van de fans / sponsors / local government sig van elkaar verschillen? Dat maakt alles al een heel stuk gemakkelijker.
Thanks!!quote:Een gewone multiple regressie met alles op een hoop is niet per se heel erg fout, maar geeft je minder asccurate schattingen etc. gewoon omdat je het effect van club niet meeneemt, dat filter je er in een multilevel uit.
Ik ben even aan aan het kloten met een voorbeeld dataset, maar moet zo weg. Als het niet op tijd lukt zou ik denk ik een gewone muiltiple regressie doen, dit meenemen naar de meeting (zeker aangezien je maar zo weinig meet, wat slecht eigenlijk :/ ) en dan in de meeting aangeven dat je extre hebt gekeken wat de beste analyse is, dit multilevel lijkt te zijn maar dit ver boven wat je hebt geleerd uitgaat, en niet iets is dat je jezelf gemakkelijk aanleert en dan vragen of je daar support bij kan krijgen.
Dan geef je aan dat je het 1. heel serieus hebt genomen, 2. je ook nog een backup analyse hebt gedaan zoals je hem hebt geleerd, and hopelijk krijg je hulp bij 3. of krijg je te horen dat het niet nodig is, totale win-win situatie lijkt me
1 2 3 4 5 | mixed OrganizationalIdentification with DomainInvolvement RegionalAffiliation PerceivedCSR OrgPrestige OrgDistinctiveness ContactFrequency /fixed = /method = ml /random = intercept | subject(ClubID) /print = solution. |
Maar daar slaan ze stukje over toch? Chi2 is toch niet puur het verschil tussen de 2 getallen en dan bij df=1 kijken of het hoger is dan 3.84?quote:Chi square=203 026.467 - 196 165.706 = 6860.76, with 1 df, p=0.000. The outcome is highly significant and indicates that a two-level model is necessary.
1 2 3 | (1150-1138.8)[sup]2[/sup] ---------------------------------- = 0.109 1150 |
Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.quote:Op donderdag 11 juni 2015 09:32 schreef superkimmi het volgende:
Ik heb een vraagje. In mijn thesis doe ik onderzoek naar 'gerrymandering' in the USA (het herverdelen van kiesdistricten om een meerderheid te verkrijgen). ik heb zelf de data over gerrymandering verzameld tussen 1961 en nu en heb van mijn begeleider de data gekregen met wie er in welk district de verkiezingen heeft gewonnen en met hoeveel procent vd stemmen. Mijn eigen data werkt helemaal met cijfers (geen gerrymandering is een nul, wel een 1). Maar die van mijn begeleider werkt uiteraard met namen. Nu bestaat zijn data uit meet dan 20.000 records, dus handmatig overzetten in werkbare cijfers gaat een tijd duren. Is er nog een andere manier waarop ik met beide datasets een regressie kan uitvoeren (in eviews of SPSS, want daar heb ik ervaring mee. we hebben op de uni evt ook Stata) zonder dat ik alles handmatig in cijfers hoef te veranderen.
Het gaat dus vooral om het transformeren van de begeleider zijn data in iets wat SPSS of eviews begrijpt. Als ik dat eenmaal heb lukt het uitvoeren van een regressie wel. Ik kan dit ook aan mijn begeleider vragen, maar die is er tot maandag niet meer en maandag heb ik een afspraak met hem waarbij ik eigenlijk hoop al wat resultaten te kunnen overleggen.
Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.quote:Op donderdag 11 juni 2015 14:13 schreef wimjongil het volgende:
[..]
Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.
Ah ja, dat dacht ik al.quote:Op donderdag 11 juni 2015 14:15 schreef superkimmi het volgende:
[..]
Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.
1 2 3 4 5 6 7 8 9 10 11 | data$nieuwekolom <- NA for(i in 1:20000){ for(j in 1:i){ if(naam[i] == naam[j]{ data$nieuwekolom[i] = j } else{ data$nieuwekolom[i] = i } } } |
Probeer gen logabnormalreturn=ln(abnormalreturn)quote:Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,
Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.
In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png
Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Gebeurt hetzelfde, helaas.quote:Op zondag 14 juni 2015 18:44 schreef crossover het volgende:
[..]
Probeer gen logabnormalreturn=ln(abnormalreturn)
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.quote:Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,
Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.
In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png
Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Bedankt.quote:Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:
[..]
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Een doube log specificatie betekent dat de beta's geinterpreteerd kunnen worden als point elasticities. Met een dummy variable is dit niet echt logisch, gezien dit discrete waarden zijn, dus 0 of 1. Met waarden die continu zijn is dit een stuk logischer.quote:Op zondag 14 juni 2015 20:12 schreef haha94boem het volgende:
[..]
Bedankt.
Weet je misschien het antwoord op de volgende vraag: als ik van mijn dummyvariabelen een log maak, dus b1*log(tenure0-3years) ipv b1*tenure0-3years, krijg ik dan een correcte interpretatie? Als ik ln(1) op mijn rekenmachine intype krijg ik namelijk 0, dus klopt mijn stata model dan wel?
Onjuist, dat is wel mogelijk.quote:Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:
[..]
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja.quote:
Dat is ook niet correct. Het natuurlijk logartime van een negatief is namelijk wel gedefinieerd, te weten als een complex getal.quote:Op maandag 15 juni 2015 14:18 schreef Banaanensuiker het volgende:
[..]
Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja.
Dan moet je splitsen op het 33ste percentiel en 66e percentiel.quote:Op dinsdag 16 juni 2015 14:45 schreef Rumille het volgende:
Even een vraagje. Ik heb zo'n 200 respondenten een kennisquiz laten afnemen. Die resultaten heb ik verwerkt en ik wil ze nu verdelen in drie categoriëen. Hoog scorend, laagscorend en gemiddeld scorend.
Nu is mijn vraag: hoe verdeel ik die. Doe ik dat zo gelijk mogelijk (dus 3 ongeveer even grote groepen) of moet ik dan werken met standaarddeviaties. Want ook dat heb ik ergens gelezen in een artikel.
Ter verduidelijking, die tweede methode is als volgt:
LOW 0 tot (median-standaarddeviatie)
MED (median-standaarddeviatie) tot (median+standaarddeviatie)
HIGH (median+standaarddeviatie) tot 10
Die drie groepen wil ik dan constant met elkaar vergelijken met andere resultaten uit mijn enquete.
Ik weet dus wel hoe ik die groepen verdeel, maar wil graag weten wat beter is.
In je tweede foto (en trouwens ook je derde) zie je dat je verdeling sterk afwijkt van een normale verdeling. Daarmee schendt je een assumptie van regressie. Je kan eens proberen om alles te hercoderen naar een log schaalquote:Op maandag 15 juni 2015 23:04 schreef fetX het volgende:
Ha iedereen!
Ik loop behoorlijk vast met SPSS. Het gaat om het volgende:
Mijn enquete is (voornamelijk) op Likert-schaal afgenomen. De y = gemiddelde behaalde cijfer op Likert schaal:
1 = <4,
2 = 4,1 t/m 5
3 = 5,1 t/m 6
4 = 6,1-7
etc.
Al onze x'en zijn ook op Likert schaal afgenomen (van 0=helemaal oneens naar 5=helemaal eens)
Volgens mijn docent mag ik gewoon een Likert-schaal op interval/ratio niveau gebruiken.
Ik heb de y en alle x'en op schaalniveau ingesteld en (na SomScores te hebben gemaakt van meerdere variabelen) deze ingevoerd en getest voor lineariteit en normaliteit. De bijlagen geven mijn resultaten weer. Klopt het dat ik iets totaal verkeerd heb gedaan? En zo niet, op welke toets moet ik nu overstappen?
http://nl.tinypic.com/r/b665gj/8
http://nl.tinypic.com/r/1zf78tg/8
http://nl.tinypic.com/r/260er9i/8
Je zit in het verkeerde topic. Wat jij nodig hebt, is het kansrekeningtopic.quote:Op woensdag 24 juni 2015 14:57 schreef phpmystyle het volgende:
We nemen 3 ballen zonder teruglegging
De kans op 2 zwarte en 1 witte bal is
In totaal zijn er 14 ballen waarvan 8 zwart en 6 wit. Hoe kan ik deze bewerking uitvoeren op mijn TI-83?
Hoe bedoel je dat precies? In de spoiler is mijn factoranalyse te zien.. hierin moeten de eerste 16 items de eerste leiderschapsstijl meten, de volgende 19 items de 2e leiderschapsstijl en de laatste 10 items de 3e leiderschapsstijlquote:Op vrijdag 3 juli 2015 10:12 schreef Anosmos het volgende:
Heb je al de Likertschalen samengevoegd tot één ratiovariabele (mits de cronbachs alpha goed zit natuurlijk)? Dan kan je wel mikken of ze significant van elkaar verschillen.
Wat je zou kunnen doen, maar dat is maar een hersenscheetje, is vaststellen wat 'hoog' is. Bijvoorbeeld, boven de 3,5 gemiddeld. Dan maak je drie nieuwe dichotome variabelen (stijl 1 hoog of laag, etc). Vergelijk dan de gemiddelden van stijl 2 tussen de twee groepen 'stijl 1 hoog' en 'stijl 1 laag'. Als daar significant verschil in zit, heb je een conclusie.
Maar nogmaals, is maar een hersenscheetje.
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.De cronbach's alphas zijn allemaal boven de 0.6 dus acceptabel. Alleen hoe moet ik nu precies verder? Het lastige is dus dat een stijl uit meerdere dimensies (=factoren?) bestaat.Fantasie is belangrijker dan kennis, want kennis is begrensd.
Hmm ja dat zou nog wel eens kunnen.. Dan moet ik per respondent zijn gemiddelde score nemen van de eerste 16 items, de volgende items behorende bij de andere leiderschapsstijl en van de laatste itemsquote:Op vrijdag 3 juli 2015 11:29 schreef Anosmos het volgende:
Kan je niet gewoon het gemiddelde nemen van elke stijl? Dus dat je van de eerste zestien items een gemiddelde neemt, waarmee je verder gaat rekenen?
En trouwens, vaak ligt de Cronbach's Alpha-grens op de 0,7 en niet de 0,6, maar dat verschilt nog per studie denk ik.
Dat is volgens mij wel het idee van een Likertschaal, dat je het gemiddelde daarvan als ratiovariabele kan beschouwen. Is het een soort Likertschaal?quote:Op vrijdag 3 juli 2015 13:29 schreef erniee het volgende:
[..]
Hmm ja dat zou nog wel eens kunnen.. Dan moet ik per respondent zijn gemiddelde score nemen van de eerste 16 items, de volgende items behorende bij de andere leiderschapsstijl en van de laatste items
Yes! 7 punts likertschalen inderdaad. Heb via compute nu voor iedere leiderschapsstijl een nieuwe variabele gemaakt met het gemiddelde van alle bijbehorende itemscores. Dus nu drie nieuwe variabelen. Eens kijken wat ik nu moet gaan doen om dit te vergelijkenquote:Op vrijdag 3 juli 2015 16:57 schreef Anosmos het volgende:
[..]
Dat is volgens mij wel het idee van een Likertschaal, dat je het gemiddelde daarvan als ratiovariabele kan beschouwen. Is het een soort Likertschaal?
Er wordt geen hypothese getest en wordt slechts om een betrouwbaarheidsinterval gevraagdquote:Op zondag 5 juli 2015 16:04 schreef Super-B het volgende:
Goedemiddag! Ik zit met een kleine vraag waar ik momenteel geen antwoord op weet, vandaar dat ik het hier kom vragen:
Bij het antwoord op het volgende vraagstuk wordt een z-score gebruikt van 1.960 (bijbehorend bij een betrouwbaarheidsinterval van 95% en een one-sided P van 0,025). Waarom wordt daarentegen geen z-score van 1.645 gebruikt (bijbehorend bij een one-sided P van 0,05 en een betrouwbaarheidsinterval van 90%). Het is immers een eenzijdige hypothese test?:
[ afbeelding ]
[ afbeelding ]
Bij deze vraag, ook een eenzijdige hypothese test, wordt wel een z-score van 1.645 genomen (one-sided p van 0,05 en een betrouwbaarheidsinterval van 90%).
Zo ver ik weet kijk je naar de rij van betrouwbaarheidsintervallen bij tweezijdige hypothese testen, waartegen je kijkt naar de rij van one-sided p bij eenzijdige hypothese testen (?).
Heeft iemand enig idee?
Dat is een beetje een vreemde vraag want de nulhypothese wordt wel of niet verworpen, daar zit geen "kans" in. Met de informatie die je hebt kun je een t-value uitrekenen (verschil in means gedeeld door standaard-deviatie gedeeld door wortel n). Om van de t-value naar een p-waarde te gaan of om op tezoeken of dat extremer dan de alpha is heb je een tabel of grafische rekenmachine of internet / spss nodig. Als de alphas overal hetzelfde waren geweest had je het op t-waarde kunnen rangschikken.quote:Op zondag 19 juli 2015 11:37 schreef -Strawberry- het volgende:
Hoi!
Stel ik krijg de vraag op een tentamen om onderstaand te ordenen op basis van de kans waarop de nulhypothese wordt verworpen (van klein naar groot).
[ afbeelding ]
Je zou dan met tabel B.11 en de niet-centraliteitsparameter voor elke apart kunnen berekenen wat het onderscheidend vermorgen is en het op die manier ordenen, maar volgens mij moet je deze vraag ook zonder kunnen beantwoorden. Weet iemand een handige manier om dat te kunnen doen/benaderen? De vorige keer hadden ze die tabel en formule er nml niet bij gegeven.
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.quote:Op zondag 19 juli 2015 17:01 schreef oompaloompa het volgende:
[..]
Dat is een beetje een vreemde vraag want de nulhypothese wordt wel of niet verworpen, daar zit geen "kans" in. Met de informatie die je hebt kun je een t-value uitrekenen (verschil in means gedeeld door standaard-deviatie gedeeld door wortel n). Om van de t-value naar een p-waarde te gaan of om op tezoeken of dat extremer dan de alpha is heb je een tabel of grafische rekenmachine of internet / spss nodig. Als de alphas overal hetzelfde waren geweest had je het op t-waarde kunnen rangschikken.
Ik gok dat je statistiekdocent wil dat je inzicht hebt in hoe statistische toetsen werken. Als je dan eerst kijkt naar de gemiddelden, dan zie je dat in twee gevallen de drie gemiddeldes hetzelfde zijn. Daarnaast zie je dat bij A-D de verschillen in principe hetzelfde zijn. A-D zullen dan een hogere "kans" op significantie hebben (tussen aanhalingstekens wegens oompa's terechte post). Vervolgens kun je bij die verschillende varianten gaan kijken naar de andere gegevens en op basis van de formules die doorgaans gebruikt worden schatten wat het meeste de "kans" beïnvloed etc.quote:Op zondag 19 juli 2015 17:12 schreef -Strawberry- het volgende:
[..]
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.
[ afbeelding ]
Grafische rekenmachine en SPSS/internet zijn geen optie helaas. Het moet echt uit het hoofd door de steekproefgroottes, standaardafwijkingen en significanties te vergelijken. Dat de kans bij C bijvoorbeeld kleiner is dan D is logisch, aangezien de nulhypothese bij een significantie van 0.05 eerder zal worden verworpen dan bij een significantie van 0.02. Als ik zo het antwoord zie 'snap' ik het wel. Maar om dat onderling allemaal te ordenen bij verschillende steekproefgroottes en dergelijke vind ik op een tentamen niet te doen.
Het beroerde is dat ik gewoon vrij zeker weet dat die vraag gaat komen en dat ik hem niet precies goed ga ordenen.
Ik hoop niet dat de vraag gaat komen, want de vraag klopt nietquote:Op zondag 19 juli 2015 17:12 schreef -Strawberry- het volgende:
[..]
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.
[ afbeelding ]
Grafische rekenmachine en SPSS/internet zijn geen optie helaas. Het moet echt uit het hoofd door de steekproefgroottes, standaardafwijkingen en significanties te vergelijken. Dat de kans bij C bijvoorbeeld kleiner is dan D is logisch, aangezien de nulhypothese bij een significantie van 0.05 eerder zal worden verworpen dan bij een significantie van 0.02. Als ik zo het antwoord zie 'snap' ik het wel. Maar om dat onderling allemaal te ordenen bij verschillende steekproefgroottes en dergelijke vind ik op een tentamen niet te doen.
Het beroerde is dat ik gewoon vrij zeker weet dat die vraag gaat komen en dat ik hem niet precies goed ga ordenen.
Klopt wel, tussen de gemiddeldes van E en F zit namelijk geen verschil (alle drie 100). De nulhypothese dat de gemiddeldes van elkaar verschillen zal dus niet verworpen worden bij een hoog onderscheidend vermogen. Gezien de steekproeven van n=500 en n=1000 zal het onderscheidend vermogen hoog zijn, waardoor de kans van E & F om verworpen te worden kleiner is dan bij de rest.quote:Op zondag 19 juli 2015 18:17 schreef oompaloompa het volgende:
[..]
Ik hoop niet dat de vraag gaat komen, want de vraag klopt niet
Bij welke opleiding hoort dit?
Je kunt met berederen redelijk ver komen. Bv E en F hebben identieke gemiddeldes, daar zit dus zeker geen verschil tussen.
G en A zijn in essentie hetzelfde, de ene heeft een verschil van 10 met een sd van 10, de andere een verschil van 20 met een sd van 20. Als je die in de formule zou stoppen zou er (aangezien de n bij allebei 100 is) exact dezelfde t waarde uit moeten komen, etc.
B is hetzelfde als A maar met een grotere sd, dus B zal minder sig zijn dan A.
D is hetzelfde als B, maar met een lagere n, als je dat in de formule zou stoppen zou er dus een lagere t uitkomen dus is nog minder sig.
C is als D maar met een strengere alfa die is dus nog minder significant.
Kom je uit op:
E&F, C, D, B, A&G
Het antwoord dat gegeven wordt klopt niet, E&F zouden de laagste plaats moeten delen.
Dat is niet waar, de formule is:quote:Op zondag 19 juli 2015 18:42 schreef -Strawberry- het volgende:
[..]
Klopt wel, tussen de gemiddeldes van E en F zit namelijk geen verschil (alle drie 100). De nulhypothese dat de gemiddeldes van elkaar verschillen zal dus niet verworpen worden bij een hoog onderscheidend vermogen. Gezien de steekproeven van n=500 en n=1000 zal het onderscheidend vermogen hoog zijn, waardoor de kans van E & F om verworpen te worden kleiner is dan bij de rest.
Bedankt voor je reactie iig.Ik zie het morgen wel.
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |