| 1 2 3 4 5 | mixed OrganizationalIdentification with DomainInvolvement RegionalAffiliation PerceivedCSR OrgPrestige OrgDistinctiveness ContactFrequency /fixed = /method = ml /random = intercept | subject(ClubID) /print = solution. |
Maar daar slaan ze stukje over toch? Chi2 is toch niet puur het verschil tussen de 2 getallen en dan bij df=1 kijken of het hoger is dan 3.84?quote:Chi square=203 026.467 - 196 165.706 = 6860.76, with 1 df, p=0.000. The outcome is highly significant and indicates that a two-level model is necessary.
| 1 2 3 | (1150-1138.8)[sup]2[/sup] ---------------------------------- = 0.109 1150 |
Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.quote:Op donderdag 11 juni 2015 09:32 schreef superkimmi het volgende:
Ik heb een vraagje. In mijn thesis doe ik onderzoek naar 'gerrymandering' in the USA (het herverdelen van kiesdistricten om een meerderheid te verkrijgen). ik heb zelf de data over gerrymandering verzameld tussen 1961 en nu en heb van mijn begeleider de data gekregen met wie er in welk district de verkiezingen heeft gewonnen en met hoeveel procent vd stemmen. Mijn eigen data werkt helemaal met cijfers (geen gerrymandering is een nul, wel een 1). Maar die van mijn begeleider werkt uiteraard met namen. Nu bestaat zijn data uit meet dan 20.000 records, dus handmatig overzetten in werkbare cijfers gaat een tijd duren. Is er nog een andere manier waarop ik met beide datasets een regressie kan uitvoeren (in eviews of SPSS, want daar heb ik ervaring mee. we hebben op de uni evt ook Stata) zonder dat ik alles handmatig in cijfers hoef te veranderen.
Het gaat dus vooral om het transformeren van de begeleider zijn data in iets wat SPSS of eviews begrijpt. Als ik dat eenmaal heb lukt het uitvoeren van een regressie wel. Ik kan dit ook aan mijn begeleider vragen, maar die is er tot maandag niet meer en maandag heb ik een afspraak met hem waarbij ik eigenlijk hoop al wat resultaten te kunnen overleggen.
Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.quote:Op donderdag 11 juni 2015 14:13 schreef wimjongil het volgende:
[..]
Zijn dat 20 000 verschillende namen of maar een paar? Je kunt wel een scriptje schrijven waarin je alle namen een nummer geeft, waarna je met dat nummer gaat rekenen en er na afloop weer die naam aan koppelt. In R is dat niet bijzonder moeilijk weet ik, Stata zou ook wel te doen zijn. SPSS en eviews heb ik niet genoeg kennis van.
Ah ja, dat dacht ik al.quote:Op donderdag 11 juni 2015 14:15 schreef superkimmi het volgende:
[..]
Het zit er qua aantal tussenin. Het gaat om de verkiezingen sinds 1960 tot van alle districten. Een naam komt uiteraard vaker voor, wanneer iemand vaker heeft meegedaan aan verkiezingen, maar het zijn zeker duizenden namen.
| 1 2 3 4 5 6 7 8 9 10 11 | data$nieuwekolom <- NA for(i in 1:20000){ for(j in 1:i){ if(naam[i] == naam[j]{ data$nieuwekolom[i] = j } else{ data$nieuwekolom[i] = i } } } |
Probeer gen logabnormalreturn=ln(abnormalreturn)quote:Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,
Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.
In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png
Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Gebeurt hetzelfde, helaas.quote:Op zondag 14 juni 2015 18:44 schreef crossover het volgende:
[..]
Probeer gen logabnormalreturn=ln(abnormalreturn)
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.quote:Op zondag 14 juni 2015 18:07 schreef haha94boem het volgende:
Dag mensen,
Bedankt voor jullie reacties. Ik heb inmiddels geprobeerd om gewoon alle data in te voeren en nu lukte het wel. Weet niet of het dan daadwerkelijk ligt aan een te lage hoeveelheid observaties in het eerste geval.
In ieder geval, ik heb nog een vraag. Ik denk dat ik log(abnormalreturn) wil regressen ipv abnormal return. Echter, als ik gen logabnormalreturn = log(abnormalreturn) doe, worden mijn negatieve waardes 'verwijderd' bij log: http://i.imgur.com/LT5PI8c.png
Hoe kan ik nu een logregressie doen? Ik moet ook de negatieve abnormal returns meenemen voor mijn onderzoek, maar ik weet niet wat ik nu moet doen om dit op te lossen. Heeft iemand tips?
Bedankt.quote:Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:
[..]
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Een doube log specificatie betekent dat de beta's geinterpreteerd kunnen worden als point elasticities. Met een dummy variable is dit niet echt logisch, gezien dit discrete waarden zijn, dus 0 of 1. Met waarden die continu zijn is dit een stuk logischer.quote:Op zondag 14 juni 2015 20:12 schreef haha94boem het volgende:
[..]
Bedankt.
Weet je misschien het antwoord op de volgende vraag: als ik van mijn dummyvariabelen een log maak, dus b1*log(tenure0-3years) ipv b1*tenure0-3years, krijg ik dan een correcte interpretatie? Als ik ln(1) op mijn rekenmachine intype krijg ik namelijk 0, dus klopt mijn stata model dan wel?
Onjuist, dat is wel mogelijk.quote:Op zondag 14 juni 2015 19:58 schreef Banaanensuiker het volgende:
[..]
Indexeren of een ratio maken. Logaritmes van negatieve getallen is niet mogelijk namelijk.
Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja.quote:
Dat is ook niet correct. Het natuurlijk logartime van een negatief is namelijk wel gedefinieerd, te weten als een complex getal.quote:Op maandag 15 juni 2015 14:18 schreef Banaanensuiker het volgende:
[..]
Natuurlijk logaritme van negatief getal is niet gedefinieerd, en daar gaat het in dit geval om. Maar anderzijds heb je gelijk ja.
Dan moet je splitsen op het 33ste percentiel en 66e percentiel.quote:Op dinsdag 16 juni 2015 14:45 schreef Rumille het volgende:
Even een vraagje. Ik heb zo'n 200 respondenten een kennisquiz laten afnemen. Die resultaten heb ik verwerkt en ik wil ze nu verdelen in drie categoriëen. Hoog scorend, laagscorend en gemiddeld scorend.
Nu is mijn vraag: hoe verdeel ik die. Doe ik dat zo gelijk mogelijk (dus 3 ongeveer even grote groepen) of moet ik dan werken met standaarddeviaties. Want ook dat heb ik ergens gelezen in een artikel.
Ter verduidelijking, die tweede methode is als volgt:
LOW 0 tot (median-standaarddeviatie)
MED (median-standaarddeviatie) tot (median+standaarddeviatie)
HIGH (median+standaarddeviatie) tot 10
Die drie groepen wil ik dan constant met elkaar vergelijken met andere resultaten uit mijn enquete.
Ik weet dus wel hoe ik die groepen verdeel, maar wil graag weten wat beter is.
In je tweede foto (en trouwens ook je derde) zie je dat je verdeling sterk afwijkt van een normale verdeling. Daarmee schendt je een assumptie van regressie. Je kan eens proberen om alles te hercoderen naar een log schaalquote:Op maandag 15 juni 2015 23:04 schreef fetX het volgende:
Ha iedereen!
Ik loop behoorlijk vast met SPSS. Het gaat om het volgende:
Mijn enquete is (voornamelijk) op Likert-schaal afgenomen. De y = gemiddelde behaalde cijfer op Likert schaal:
1 = <4,
2 = 4,1 t/m 5
3 = 5,1 t/m 6
4 = 6,1-7
etc.
Al onze x'en zijn ook op Likert schaal afgenomen (van 0=helemaal oneens naar 5=helemaal eens)
Volgens mijn docent mag ik gewoon een Likert-schaal op interval/ratio niveau gebruiken.
Ik heb de y en alle x'en op schaalniveau ingesteld en (na SomScores te hebben gemaakt van meerdere variabelen) deze ingevoerd en getest voor lineariteit en normaliteit. De bijlagen geven mijn resultaten weer. Klopt het dat ik iets totaal verkeerd heb gedaan? En zo niet, op welke toets moet ik nu overstappen?
http://nl.tinypic.com/r/b665gj/8
http://nl.tinypic.com/r/1zf78tg/8
http://nl.tinypic.com/r/260er9i/8
Je zit in het verkeerde topic. Wat jij nodig hebt, is het kansrekeningtopic.quote:Op woensdag 24 juni 2015 14:57 schreef phpmystyle het volgende:
We nemen 3 ballen zonder teruglegging
De kans op 2 zwarte en 1 witte bal is
In totaal zijn er 14 ballen waarvan 8 zwart en 6 wit. Hoe kan ik deze bewerking uitvoeren op mijn TI-83?
Hoe bedoel je dat precies? In de spoiler is mijn factoranalyse te zien.. hierin moeten de eerste 16 items de eerste leiderschapsstijl meten, de volgende 19 items de 2e leiderschapsstijl en de laatste 10 items de 3e leiderschapsstijlquote:Op vrijdag 3 juli 2015 10:12 schreef Anosmos het volgende:
Heb je al de Likertschalen samengevoegd tot één ratiovariabele (mits de cronbachs alpha goed zit natuurlijk)? Dan kan je wel mikken of ze significant van elkaar verschillen.
Wat je zou kunnen doen, maar dat is maar een hersenscheetje, is vaststellen wat 'hoog' is. Bijvoorbeeld, boven de 3,5 gemiddeld. Dan maak je drie nieuwe dichotome variabelen (stijl 1 hoog of laag, etc). Vergelijk dan de gemiddelden van stijl 2 tussen de twee groepen 'stijl 1 hoog' en 'stijl 1 laag'. Als daar significant verschil in zit, heb je een conclusie.
Maar nogmaals, is maar een hersenscheetje.
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.De cronbach's alphas zijn allemaal boven de 0.6 dus acceptabel. Alleen hoe moet ik nu precies verder? Het lastige is dus dat een stijl uit meerdere dimensies (=factoren?) bestaat.Fantasie is belangrijker dan kennis, want kennis is begrensd.
Hmm ja dat zou nog wel eens kunnen.. Dan moet ik per respondent zijn gemiddelde score nemen van de eerste 16 items, de volgende items behorende bij de andere leiderschapsstijl en van de laatste itemsquote:Op vrijdag 3 juli 2015 11:29 schreef Anosmos het volgende:
Kan je niet gewoon het gemiddelde nemen van elke stijl? Dus dat je van de eerste zestien items een gemiddelde neemt, waarmee je verder gaat rekenen?
En trouwens, vaak ligt de Cronbach's Alpha-grens op de 0,7 en niet de 0,6, maar dat verschilt nog per studie denk ik.
Dat is volgens mij wel het idee van een Likertschaal, dat je het gemiddelde daarvan als ratiovariabele kan beschouwen. Is het een soort Likertschaal?quote:Op vrijdag 3 juli 2015 13:29 schreef erniee het volgende:
[..]
Hmm ja dat zou nog wel eens kunnen.. Dan moet ik per respondent zijn gemiddelde score nemen van de eerste 16 items, de volgende items behorende bij de andere leiderschapsstijl en van de laatste items
Yes! 7 punts likertschalen inderdaad. Heb via compute nu voor iedere leiderschapsstijl een nieuwe variabele gemaakt met het gemiddelde van alle bijbehorende itemscores. Dus nu drie nieuwe variabelen. Eens kijken wat ik nu moet gaan doen om dit te vergelijkenquote:Op vrijdag 3 juli 2015 16:57 schreef Anosmos het volgende:
[..]
Dat is volgens mij wel het idee van een Likertschaal, dat je het gemiddelde daarvan als ratiovariabele kan beschouwen. Is het een soort Likertschaal?
Er wordt geen hypothese getest en wordt slechts om een betrouwbaarheidsinterval gevraagdquote:Op zondag 5 juli 2015 16:04 schreef Super-B het volgende:
Goedemiddag! Ik zit met een kleine vraag waar ik momenteel geen antwoord op weet, vandaar dat ik het hier kom vragen:
Bij het antwoord op het volgende vraagstuk wordt een z-score gebruikt van 1.960 (bijbehorend bij een betrouwbaarheidsinterval van 95% en een one-sided P van 0,025). Waarom wordt daarentegen geen z-score van 1.645 gebruikt (bijbehorend bij een one-sided P van 0,05 en een betrouwbaarheidsinterval van 90%). Het is immers een eenzijdige hypothese test?:
[ afbeelding ]
[ afbeelding ]
Bij deze vraag, ook een eenzijdige hypothese test, wordt wel een z-score van 1.645 genomen (one-sided p van 0,05 en een betrouwbaarheidsinterval van 90%).
Zo ver ik weet kijk je naar de rij van betrouwbaarheidsintervallen bij tweezijdige hypothese testen, waartegen je kijkt naar de rij van one-sided p bij eenzijdige hypothese testen (?).
Heeft iemand enig idee?
Dat is een beetje een vreemde vraag want de nulhypothese wordt wel of niet verworpen, daar zit geen "kans" in. Met de informatie die je hebt kun je een t-value uitrekenen (verschil in means gedeeld door standaard-deviatie gedeeld door wortel n). Om van de t-value naar een p-waarde te gaan of om op tezoeken of dat extremer dan de alpha is heb je een tabel of grafische rekenmachine of internet / spss nodig. Als de alphas overal hetzelfde waren geweest had je het op t-waarde kunnen rangschikken.quote:Op zondag 19 juli 2015 11:37 schreef -Strawberry- het volgende:
Hoi!
Stel ik krijg de vraag op een tentamen om onderstaand te ordenen op basis van de kans waarop de nulhypothese wordt verworpen (van klein naar groot).
[ afbeelding ]
Je zou dan met tabel B.11 en de niet-centraliteitsparameter voor elke apart kunnen berekenen wat het onderscheidend vermorgen is en het op die manier ordenen, maar volgens mij moet je deze vraag ook zonder kunnen beantwoorden. Weet iemand een handige manier om dat te kunnen doen/benaderen? De vorige keer hadden ze die tabel en formule er nml niet bij gegeven.
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.quote:Op zondag 19 juli 2015 17:01 schreef oompaloompa het volgende:
[..]
Dat is een beetje een vreemde vraag want de nulhypothese wordt wel of niet verworpen, daar zit geen "kans" in. Met de informatie die je hebt kun je een t-value uitrekenen (verschil in means gedeeld door standaard-deviatie gedeeld door wortel n). Om van de t-value naar een p-waarde te gaan of om op tezoeken of dat extremer dan de alpha is heb je een tabel of grafische rekenmachine of internet / spss nodig. Als de alphas overal hetzelfde waren geweest had je het op t-waarde kunnen rangschikken.
Ik gok dat je statistiekdocent wil dat je inzicht hebt in hoe statistische toetsen werken. Als je dan eerst kijkt naar de gemiddelden, dan zie je dat in twee gevallen de drie gemiddeldes hetzelfde zijn. Daarnaast zie je dat bij A-D de verschillen in principe hetzelfde zijn. A-D zullen dan een hogere "kans" op significantie hebben (tussen aanhalingstekens wegens oompa's terechte post). Vervolgens kun je bij die verschillende varianten gaan kijken naar de andere gegevens en op basis van de formules die doorgaans gebruikt worden schatten wat het meeste de "kans" beïnvloed etc.quote:Op zondag 19 juli 2015 17:12 schreef -Strawberry- het volgende:
[..]
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.
[ afbeelding ]
Grafische rekenmachine en SPSS/internet zijn geen optie helaas. Het moet echt uit het hoofd door de steekproefgroottes, standaardafwijkingen en significanties te vergelijken. Dat de kans bij C bijvoorbeeld kleiner is dan D is logisch, aangezien de nulhypothese bij een significantie van 0.05 eerder zal worden verworpen dan bij een significantie van 0.02. Als ik zo het antwoord zie 'snap' ik het wel. Maar om dat onderling allemaal te ordenen bij verschillende steekproefgroottes en dergelijke vind ik op een tentamen niet te doen.
Het beroerde is dat ik gewoon vrij zeker weet dat die vraag gaat komen en dat ik hem niet precies goed ga ordenen.
Ik hoop niet dat de vraag gaat komen, want de vraag klopt nietquote:Op zondag 19 juli 2015 17:12 schreef -Strawberry- het volgende:
[..]
Klopt, maar het onderscheidend vermogen is natuurlijk niet overal even hoog.
[ afbeelding ]
Grafische rekenmachine en SPSS/internet zijn geen optie helaas. Het moet echt uit het hoofd door de steekproefgroottes, standaardafwijkingen en significanties te vergelijken. Dat de kans bij C bijvoorbeeld kleiner is dan D is logisch, aangezien de nulhypothese bij een significantie van 0.05 eerder zal worden verworpen dan bij een significantie van 0.02. Als ik zo het antwoord zie 'snap' ik het wel. Maar om dat onderling allemaal te ordenen bij verschillende steekproefgroottes en dergelijke vind ik op een tentamen niet te doen.
Het beroerde is dat ik gewoon vrij zeker weet dat die vraag gaat komen en dat ik hem niet precies goed ga ordenen.
Klopt wel, tussen de gemiddeldes van E en F zit namelijk geen verschil (alle drie 100). De nulhypothese dat de gemiddeldes van elkaar verschillen zal dus niet verworpen worden bij een hoog onderscheidend vermogen. Gezien de steekproeven van n=500 en n=1000 zal het onderscheidend vermogen hoog zijn, waardoor de kans van E & F om verworpen te worden kleiner is dan bij de rest.quote:Op zondag 19 juli 2015 18:17 schreef oompaloompa het volgende:
[..]
Ik hoop niet dat de vraag gaat komen, want de vraag klopt niet
Bij welke opleiding hoort dit?
Je kunt met berederen redelijk ver komen. Bv E en F hebben identieke gemiddeldes, daar zit dus zeker geen verschil tussen.
G en A zijn in essentie hetzelfde, de ene heeft een verschil van 10 met een sd van 10, de andere een verschil van 20 met een sd van 20. Als je die in de formule zou stoppen zou er (aangezien de n bij allebei 100 is) exact dezelfde t waarde uit moeten komen, etc.
B is hetzelfde als A maar met een grotere sd, dus B zal minder sig zijn dan A.
D is hetzelfde als B, maar met een lagere n, als je dat in de formule zou stoppen zou er dus een lagere t uitkomen dus is nog minder sig.
C is als D maar met een strengere alfa die is dus nog minder significant.
Kom je uit op:
E&F, C, D, B, A&G
Het antwoord dat gegeven wordt klopt niet, E&F zouden de laagste plaats moeten delen.
Dat is niet waar, de formule is:quote:Op zondag 19 juli 2015 18:42 schreef -Strawberry- het volgende:
[..]
Klopt wel, tussen de gemiddeldes van E en F zit namelijk geen verschil (alle drie 100). De nulhypothese dat de gemiddeldes van elkaar verschillen zal dus niet verworpen worden bij een hoog onderscheidend vermogen. Gezien de steekproeven van n=500 en n=1000 zal het onderscheidend vermogen hoog zijn, waardoor de kans van E & F om verworpen te worden kleiner is dan bij de rest.
Bedankt voor je reactie iig.Ik zie het morgen wel.
Sorry ik had verkeerd gelezen. Dacht dat je bedoelde dat E & F in de ordening achteraan moesten staan.quote:Op zondag 19 juli 2015 18:49 schreef oompaloompa het volgende:
[..]
Dat is niet waar, de formule is:
verschil in means / vanalles.
Het verschil in means is in beide gevallen 0, 0/whatever is 0. de "kans" dat het verworpen wordt is voor beide situaties 0
Het is echt een extreem slechte opgave van de docent, de vraag slaat nergens op en het leert de studenten gewoon een verkeerde interpretstie van statistiek aan.
edit: sorry dit frustreert me maar het is niet richting jou. Ik geef workshops etc. statistiek en mensen interpreteren het al zo vaak verkeerd dat het zien dat docenten het verkeerd aanleren me nogal opgefokt maakt.
Thanks, Z. Maar om heel eerlijk te zijn begrijp ik niet zo goed wat het verschil is tussen een grotere nauwkeurigheid of een kleinere betrouwbaarheid. Kan jij het mij uitleggen in jip en janneke taal? Ik wil het heel graag begrijpen, zodat ik mijn keuze ook goed kan verantwoorden. Het enige dat ik weet is dat je bij een nauwkeurigheid niet meer dan 10% neemt en bij een betrouwbaarheid nooit lager dan 90% gaat.. Maar wat het wezenlijke verschil nou is en "belangrijker"?quote:
Heb gedaan wat jij suggereerde. Dus 3 dichtome variabelen gemaakt (hoge score/lage score per leiderschapsstijl) en vervolgens deze via een independent t-test vergeleken met de gemiddelde scores op de andere leiderschapsstijl. (uitkomst is niet significant). Maar vraag me nog altijd wel af of ik wel mag concluderen dat ze dan wel (of in dit geval dus niet) significant van elkaar verschillen..quote:Op vrijdag 3 juli 2015 10:12 schreef Anosmos het volgende:
Heb je al de Likertschalen samengevoegd tot één ratiovariabele (mits de cronbachs alpha goed zit natuurlijk)? Dan kan je wel mikken of ze significant van elkaar verschillen.
Wat je zou kunnen doen, maar dat is maar een hersenscheetje, is vaststellen wat 'hoog' is. Bijvoorbeeld, boven de 3,5 gemiddeld. Dan maak je drie nieuwe dichotome variabelen (stijl 1 hoog of laag, etc). Vergelijk dan de gemiddelden van stijl 2 tussen de twee groepen 'stijl 1 hoog' en 'stijl 1 laag'. Als daar significant verschil in zit, heb je een conclusie.
Maar nogmaals, is maar een hersenscheetje.
Wat voor studie doe je?quote:Op maandag 27 juli 2015 15:34 schreef gekke_sandra het volgende:
[..]
Thanks, Z. Maar om heel eerlijk te zijn begrijp ik niet zo goed wat het verschil is tussen een grotere nauwkeurigheid of een kleinere betrouwbaarheid. Kan jij het mij uitleggen in jip en janneke taal? Ik wil het heel graag begrijpen, zodat ik mijn keuze ook goed kan verantwoorden. Het enige dat ik weet is dat je bij een nauwkeurigheid niet meer dan 10% neemt en bij een betrouwbaarheid nooit lager dan 90% gaat.. Maar wat het wezenlijke verschil nou is en "belangrijker"?
Kan ik überhaupt wel afstuderen met zulke betrouwbaarheidsniveaus (95/90%) en foutmarges (10/8%)?
quote:Op donderdag 30 juli 2015 09:59 schreef Soldier2000 het volgende:
Ik heb ook nog een andere vraag, ik heb in mijn onderzoek enkele P waardes die hoger liggen dan de algemeen geaccepteerde cut-off point van p=0.05, namelijk p=0.054 en p=0.056.
Ondanks dat ze hoger dan de cut-off point liggen, wil ik er wel iets over zeggen, maar niet in de trant van: 'a nonsignificant trend' of 'a small trend'.
Tips?
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.legio mogelijkheden!
'Expand my brain, learning juice!'
<a href="http://www.last.fm/user/crossover1" rel="nofollow" target="_blank">Last.fm</a>
quote:Op vrijdag 31 juli 2015 08:23 schreef crossover het volgende:
[..]Maar dat is allemaal ongeveer hetzelfde in andere bewoording. Ik denk dat hij eerder iets zoekt als groepsgrootte net te klein om significantie aan te tonen. Grotere groep waarschijnlijk wel significant.SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.legio mogelijkheden!
"Happiness is not getting more, but wanting less"
Ja, of het effect/verschil is te klein voor deze groep.quote:Op vrijdag 31 juli 2015 09:50 schreef ssebass het volgende:
[..]
Maar dat is allemaal ongeveer hetzelfde in andere bewoording. Ik denk dat hij eerder iets zoekt als groepsgrootte net te klein om significantie aan te tonen. Grotere groep waarschijnlijk wel significant.
Wat we hierboven dus zeggen. Dat het effect (net) te klein is om met deze groep aan tonen, maar met een iets grotere groep waarschijnlijk wel significant is. Je kunt het nu niet significant lullen, tenzij je je data gaat aanpassen maar dan moet je Diederik Stapel maar even om advies vragen...quote:Op vrijdag 31 juli 2015 11:16 schreef Soldier2000 het volgende:
Ik wil iets over die hypothese zeggen, niet simpel weg, hoger dan 0.05, dus niet significant, niet bewezen and that's it. Maar wel iets dat aanvaardbaar is.
Heb je hiervoor nog een oplossing gevonden? Ik heb voor mijn thesis de process macro van Hayes geïnstalleerd in SPSS. Dat werkt enorm goed alleen heeft wel enige instructie nodig.quote:Op woensdag 29 juli 2015 20:02 schreef Soldier2000 het volgende:
Ik wil de volgende hypotheses van het onderstaande model testen (groen = significant, rood = niet significant)
Ik wil geen Sobel test gebruik om het indirect effect te berekenen, maar een bootstrap of de t/p-values. Alleen ik loop vast met het toepassen ervan, sterker nog, ik heb gewoon geen idee hoe ik dit moet berekenen.
Het model heb ik getest in SmartPLS, weet iemand hoe ik dit kan berekenen
[ afbeelding ]
je kunt gewoon bij conditional formatting A1 selecteren "new rule" -> "use formula to determine which cells to format" ... en dan daar =A2=y in zetten als je het voor een hele kolom wil dan zet je er =$A2=y neerquote:Op dinsdag 11 augustus 2015 15:30 schreef phpmystyle het volgende:
Even newbie question hoor
Maar hoe kan ik het volgende in excel maken?
in cel a1 staat x, als dan in cel a2 y staat moet cel a1 rood worden.
Hoe doe ik dat met voorwaardelijke opmaak?
Als je leeftijden alleen gebruikt als onderdeel van de demografische gegevens in je methode sectie, dan zou ik gewoon via SPSS de gemiddelde leeftijd en standaarddeviatie berekenen. Hij neemt dan automatisch (volgens mij, heb even geen SPSS bij de hand om het te proberen) alleen de cases mee waarbij er een waarde is voor die variabele. Als je met de leeftijden wilt gaan rekenen wordt het een ander verhaal, maar dan heb ik meer informatie nodig over je onderzoeksopzet.quote:Op donderdag 15 oktober 2015 15:39 schreef W00fer het volgende:
Ik heb een aantal vragen over mijn dataverwerking.
-Niet elke respondent heeft op mijn enquête een leeftijd ingevuld. Ik had de keuze om die vraag verplicht te maken, echter heb je dan kans dat men de enquete daar al afbreekt. De andere optie is vragen niet allemaal verplicht maken. Ik zou volgens mijn begeleider die specifieke missende leeftijden niet mee moeten nemen. Je hebt missing-pairwise en missing-listwise maar verder gaf hij geen tips. Iemand anders zei dat je het ook op kunt lossen door op de plaats van de missende leeftijden het gemiddelde / de modus of de mediaan van alle leeftijden neer kan zetten, echter dat dit een mindere optie was. Weet iemand hoe ik deze specifieke missende leeftijden (ik denk bij 10 van de 300 respondenten) eruit laat?
Klinkt alsof elke enquete door Qualtrics als uniek wordt gezien (met daarbinnen de data van elk projectteam). In dat geval is het handigste (denk ik) om alle data te exporteren naar SPSS, zorgen dat de variabelen hetzelfde heten en meten en dan merge files (add cases, niet variables).quote:-Ik heb mijn data verzamelt in Qualtrics in aparte mapjes. Dus elk projectteam wat ik ondervraagd heb staat in een aparte map met daarin een enquete. Heeft iemand een idee hoe ik dit makkelijk kan samenvoegen met de teamleider enquêtes (aparte survey).
ICC zegt me zo 1 2 3 niets, wat bedoel je hier precies?quote:-Vervolgens moet ik mijn data aggregeren naar team level via ICC. Ik zie wel wat filmpjes, maar welke variabelen moet ik wel en niet meeenemen in de analyse?
Geen idee, sorry.quote:-Heeft er iemand verstand van de Hayes process macro waarmee je mediatoren / moderatoren kan testen?
Om de teams uit elkaar te houden heb ik het zo gedaanquote:Op donderdag 15 oktober 2015 16:02 schreef Operc het volgende:
[..]
Als je leeftijden alleen gebruikt als onderdeel van de demografische gegevens in je methode sectie, dan zou ik gewoon via SPSS de gemiddelde leeftijd en standaarddeviatie berekenen. Hij neemt dan automatisch (volgens mij, heb even geen SPSS bij de hand om het te proberen) alleen de cases mee waarbij er een waarde is voor die variabele. Als je met de leeftijden wilt gaan rekenen wordt het een ander verhaal, maar dan heb ik meer informatie nodig over je onderzoeksopzet.
[..]
Klinkt alsof elke enquete door Qualtrics als uniek wordt gezien (met daarbinnen de data van elk projectteam). In dat geval is het handigste (denk ik) om alle data te exporteren naar SPSS, zorgen dat de variabelen hetzelfde heten en meten en dan merge files (add cases, niet variables).
[..]
ICC zegt me zo 1 2 3 niets, wat bedoel je hier precies?
[..]
Geen idee, sorry.
Oké, ik neem aan dat je de vragenlijst dus gekopieerd hebt naar die mapjes? Dan zijn het voor Qualtrics (denk ik) onafhankelijke vragenlijsten geworden, ieder met de eigen deelnemers (HemaLeden/HemaLeider/BartLeden/BartLeider). Het is dan het handigste om dit na het downloaden van de data samen te voegen denk ik.quote:Op donderdag 15 oktober 2015 16:07 schreef W00fer het volgende:
[..]
Om de teams uit elkaar te houden heb ik het zo gedaan
Mapje HEMA team
-Teamleden enquete
-Teamleider enquete
Mapje Bart Smit team
-Teamleden enquete
-Teamleider enquete
Ik heb geen ervaring met multi-level analysis helaas, misschien dat anderen je hier daar beter mee kunnen helpen.quote:ICC is ervoor om de resultaten van teamleden te aggregeren naar teamniveau, aangezien de variabelen in mijn onderzoeksmodel op teamniveau conclusies geven (Unit of Analysis is teamlevel, unit of observation individual level).
Ja. Dus als je bijvoorbeeld een dataset hebt met leeftijd en geslacht van deelnemers 1-50 en een andere dataset met leeftijd en geslacht van deelnemers 51-100, dan kun je die tweede met die eerste 'mergen' op 'cases' om deelnemers 51-100 aan de dataset van deelnemers 1-50 toe te voegen. Als je op variabele zou mergen zou je opeens 4 variabelen hebben, geslacht, leeftijd en nog eens geslacht en leeftijd. Dat wordt een redelijke bende.quote:Wat bedoel je met die merge files met cases, voegt hij anders kolommen toe als ik voor variables kies?
Ja ik heb de lege surveys vooraf gekopieerd.quote:Op donderdag 15 oktober 2015 16:11 schreef Operc het volgende:
[..]
Oké, ik neem aan dat je de vragenlijst dus gekopieerd hebt naar die mapjes? Dan zijn het voor Qualtrics (denk ik) onafhankelijke vragenlijsten geworden, ieder met de eigen deelnemers (HemaLeden/HemaLeider/BartLeden/BartLeider). Het is dan het handigste om dit na het downloaden van de data samen te voegen denk ik.
[..]
Ik heb geen ervaring met multi-level analysis helaas, misschien dat anderen je hier daar beter mee kunnen helpen.
[..]
Ja. Dus als je bijvoorbeeld een dataset hebt met leeftijd en geslacht van deelnemers 1-50 en een andere dataset met leeftijd en geslacht van deelnemers 51-100, dan kun je die tweede met die eerste 'mergen' op 'cases' om deelnemers 51-100 aan de dataset van deelnemers 1-50 toe te voegen. Als je op variabele zou mergen zou je opeens 4 variabelen hebben, geslacht, leeftijd en nog eens geslacht en leeftijd. Dat wordt een redelijke bende.![]()
In de SPSS bestanden even een variabele aanmaken met proefpersoonnummer van de teamleden. Daarna merge -> add variables en dan kun je als het goed is ergens aanklikken dat het gebaseerd moet zijn op dat proefpersoonnummer, dan krijg je (als het goed is) een dataset met de antwoorden van je teamleden en daarnaast de beoordelingen van de teamleider.quote:Op donderdag 15 oktober 2015 16:36 schreef W00fer het volgende:
Enig idee hoe ik de teamleider survey aan de teamleden survey moet koppelen?
Het ligt eraan of alle vragen van elke lijst hetzelfde meten (factoranalyse enzo). Als dat zo is kun je eventueel totaalscores maken en vervolgens correlaties berekenen of andere regressie-analyses uitvoeren. Dat ligt aan je onderzoeksvragen, precieze data en structuur.quote:De teamleider heeft dmv 12 vragen zijn teamleden beoordeeld, de teamleden hebben dmv 19 vragen hun werkzaamheden beoordeeld. Ik neem aan dat je linaire regressie doet door bijv independent variable "werkzaamheden" op "teamprestaties" toch zijn dit compleet andere vragenlijsten? Ik wil kijken in hoeverre de werkzaamheden van invloed zijn op de prestaties.
Moet je mediation testen of moderation?quote:Op donderdag 15 oktober 2015 15:39 schreef W00fer het volgende:
Ik heb een aantal vragen over mijn dataverwerking.
-Niet elke respondent heeft op mijn enquête een leeftijd ingevuld. Ik had de keuze om die vraag verplicht te maken, echter heb je dan kans dat men de enquete daar al afbreekt. De andere optie is vragen niet allemaal verplicht maken. Ik zou volgens mijn begeleider die specifieke missende leeftijden niet mee moeten nemen. Je hebt missing-pairwise en missing-listwise maar verder gaf hij geen tips. Iemand anders zei dat je het ook op kunt lossen door op de plaats van de missende leeftijden het gemiddelde / de modus of de mediaan van alle leeftijden neer kan zetten, echter dat dit een mindere optie was. Weet iemand hoe ik deze specifieke missende leeftijden (ik denk bij 10 van de 300 respondenten) eruit laat?
-Ik heb mijn data verzamelt in Qualtrics in aparte mapjes. Dus elk projectteam wat ik ondervraagd heb staat in een aparte map met daarin een enquete. Heeft iemand een idee hoe ik dit makkelijk kan samenvoegen met de teamleider enquêtes (aparte survey).
-Vervolgens moet ik mijn data aggregeren naar team level via ICC. Ik zie wel wat filmpjes, maar welke variabelen moet ik wel en niet meeenemen in de analyse?
-Heeft er iemand verstand van de Hayes process macro waarmee je mediatoren / moderatoren kan testen?
Beiden. Ik heb zowel een mediator als moderator.quote:Op donderdag 15 oktober 2015 23:49 schreef MCH het volgende:
[..]
Moet je mediation testen of moderation?
Ik ga eerst de cronbachs alpha berekenen om te kijken of ik wat vragen eruit kan gooien. Die totaalscores per team hoe werkt dat?quote:Op donderdag 15 oktober 2015 16:53 schreef Operc het volgende:
[..]
In de SPSS bestanden even een variabele aanmaken met proefpersoonnummer van de teamleden. Daarna merge -> add variables en dan kun je als het goed is ergens aanklikken dat het gebaseerd moet zijn op dat proefpersoonnummer, dan krijg je (als het goed is) een dataset met de antwoorden van je teamleden en daarnaast de beoordelingen van de teamleider.
[..]
Het ligt eraan of alle vragen van elke lijst hetzelfde meten (factoranalyse enzo). Als dat zo is kun je eventueel totaalscores maken en vervolgens correlaties berekenen of andere regressie-analyses uitvoeren. Dat ligt aan je onderzoeksvragen, precieze data en structuur.
Dus eigenlijk heb je moderated mediation? Is je moderator binary?quote:Op vrijdag 16 oktober 2015 10:01 schreef W00fer het volgende:
[..]
Beiden. Ik heb zowel een mediator als moderator.
Dat kan? Nee niet binary. Team tenure is het.quote:Op vrijdag 16 oktober 2015 11:02 schreef MCH het volgende:
[..]
Dus eigenlijk heb je moderated mediation? Is je moderator binary?
Model 5, alleen dan zonder direct effect tussen X en Y. Via Mi en dan W heef een invloed op de relatie tussen X en Mi. Zo dus:quote:Op vrijdag 16 oktober 2015 11:22 schreef MCH het volgende:
En misschien is het handig om te vertellen welke van de 76 modellen je wil gaan testen:
http://www.afhayes.com/public/templates.pdf
Eigenlijk bedoel je dus model 7? Snap je trouwens het idee van moderated mediation of überhaupt mediation? Of bestaat je conceptuele model eigenlijk uit twee losse relaties a op b met 1 moderator en b op c als directe relatie?quote:Op vrijdag 16 oktober 2015 12:37 schreef W00fer het volgende:
[..]
Model 5, alleen dan zonder direct effect tussen X en Y. Via Mi en dan W heef een invloed op de relatie tussen X en Mi. Zo dus:
[ afbeelding ]
Nee, want Dat zou betekenen dat de moderator invloed heeft op mijn mediator. Volgens mij is dat niet in mijn model wat ik hierboven getekend heb. Het hoeft namelijk niet van invloed te zijn opquote:Op maandag 19 oktober 2015 13:11 schreef MCH het volgende:
[..]
Eigenlijk bedoel je dus model 7? Snap je trouwens het idee van moderated mediation of überhaupt mediation? Of bestaat je conceptuele model eigenlijk uit twee losse relaties a op b met 1 moderator en b op c als directe relatie?
Dan test je dus geen mediation alleen maar twee aparte relaties die jij toevallig aan elkaar hebt gekoppeld in je model.quote:Op maandag 19 oktober 2015 13:51 schreef W00fer het volgende:
[..]
Nee, want Dat zou betekenen dat de moderator invloed heeft op mijn mediator. Volgens mij is dat niet in mijn model wat ik hierboven getekend heb. Het hoeft namelijk niet van invloed te zijn op
In model 7 ga je uit van een directe relatie tussen X en Y en die veronderstel ik niet, alleen via de mediator.
Ik heb de mediator gepakt als versterkende waarde. Dus als X aanwezig is en Z dan zal Y waarschijnlijk optreden.quote:Op maandag 19 oktober 2015 13:59 schreef MCH het volgende:
Als je ook nog eens naar de omschrijving van mediation kijkt dan is die als volgt: Er bestaat een mediating effect als variabele Z de relatie tussen x en y wegneemt of afzwakt. Als je dan die moderator erbij pakt dan check je of dat voor bepaalde waarden van die moderator geldt.
Dan weet ik niet wat je aan het doen bent maar iig geen mediation. Succes met je onderzoek!quote:Op maandag 19 oktober 2015 15:53 schreef W00fer het volgende:
[..]
Ik heb de mediator gepakt als versterkende waarde. Dus als X aanwezig is en Z dan zal Y waarschijnlijk optreden.
Bedankt voor de heads-up In elk geval, hoe kan ik de variabelen testen?quote:Op maandag 19 oktober 2015 16:01 schreef MCH het volgende:
[..]
Dan weet ik niet wat je aan het doen bent maar iig geen mediation. Succes met je onderzoek!
Na de cronbach wel 1 variabele van maken dan. Voor die process macro zijn wel tutorials te vinden. Je mag je uitkomst hier wel neerzetten dan.quote:Op maandag 19 oktober 2015 17:18 schreef W00fer het volgende:
[..]
Bedankt voor de heads-up In elk geval, hoe kan ik de variabelen testen?
Want ik heb bijvoorbeeld 5 items per construct, dan test ik die eerst op cronbachs alpha, en daarna voer ik die variabelen in de process macro. Dus zowel X als Z als Y en dan geeft hij eruit wat ik moet hebben?
En wat doet die mvlist precies? Ik ga nog even navragen of ik model 5 moet doen of model 7.quote:Op maandag 19 oktober 2015 17:42 schreef MCH het volgende:
Al zeg ik dat model 5 fout is als je dit wil doen moet je het volgende invoeren:
Minimum PROCESS command structure
PROCESS vars = xvar mvlist yvar wvar/y=yvar/x=xvar/m=mvlist/w=wvar/model=5.
Dat is je mediator. Model 5 test de moderator op de directe relatie waarvan jij zegt dat die niet bestaat dus dan kom je uit bij model 7.quote:Op maandag 19 oktober 2015 18:03 schreef W00fer het volgende:
[..]
En wat doet die mvlist precies? Ik ga nog even navragen of ik model 5 moet doen of model 7.
Waar moet ik precies op letten wat eruit komt?
quote:Op maandag 19 oktober 2015 19:05 schreef MCH het volgende:
[..]
Dat is je mediator. Model 5 test de moderator op de directe relatie waarvan jij zegt dat die niet bestaat dus dan kom je uit bij model 7.
Ok, en moet de waarde nog precies ergens boven vallen of tussen vallen? Net zoals bij KMO ofzo of significantie.quote:Op maandag 19 oktober 2015 19:05 schreef MCH het volgende:
[..]
Dat is je mediator. Model 5 test de moderator op de directe relatie waarvan jij zegt dat die niet bestaat dus dan kom je uit bij model 7.
| Forum Opties | |
|---|---|
| Forumhop: | |
| Hop naar: | |