abonnement Unibet Coolblue
pi_158407453
Ik kan me zo voorstellen dat fetX een tikkie teveel in de stress zit om te reply-en. Maar netjes is het niet inderdaad.

Opleiding laag-midden-hoog kan je wel als continue variabele zien toch?
Aldus.
pi_158410127
quote:
2s.gif Op maandag 21 december 2015 13:04 schreef Z het volgende:
Ik kan me zo voorstellen dat fetX een tikkie teveel in de stress zit om te reply-en. Maar netjes is het niet inderdaad.

Opleiding laag-midden-hoog kan je wel als continue variabele zien toch?
Kan ook zijn dat hij (zij) zijn (haar) probleem zelf al op had gelost heeft ondertussen of wegens een andere reden niet meer in dit topic heeft gekeken.

En opleidingsniveau kun je in dit geval niet zien als continue variabele. Je weet niet hoe groot de stapjes zijn tussen iedere categorie. Je weet hooguit dat er een ordening in zit, dus ordinaal meetniveau. Dit is niet genoeg om correlaties mee te berekenen.

de variabele "Aantal jaren opleiding genoten" zou daarentegen wel kunnen :)
pi_158410236
Je hebt een punt, maar ik vind het in sommige gevallen toch niet zo'n probleem.
Aldus.
pi_158411386
Dan nog kun je even het fatsoen opbrengen om een reactie te plaatsen. Vooral als je opzichtig aan het klunzen bent.
pi_158412903
quote:
14s.gif Op maandag 21 december 2015 14:48 schreef Z het volgende:
Je hebt een punt, maar ik vind het in sommige gevallen toch niet zo'n probleem.
Dan ben ik het niet met je eens, aangezien het m.i. gewoon fout is. Vooral gezien het feit dat je eerder al aangaf dat je een "laag-midden-hoog" variabele beschouwt als een continue variabele, wat ook gewoon fout is. Als je met zulke verkeerde assumpties statistiek gaat beoefenen, ga je toch echt de mist in!
pi_158426920
Ik ben niet zo streng in de leer. Hangt er een beetje vanaf wat je er uiteindelijk mee doet.
Aldus.
pi_158632169
Hi allemaal,

Na wat feedback van mijn begeleider ben ik mijn analyse (meervoudige regressieanalyse) aan het herschrijven. 1 van de punten die ze opnoemde was dat het verschil tussen de Adjusted R squares die ik heb gevonden, namelijk van .062 (model 1 met controlevariabelen) naar .805 (model 2 met vier onafhankelijke variabelen) aardig onmogelijk is. Na alles opnieuw ingevoerd te hebben kom ik op hetzelfde uit, en snap niet wat de oorzaak hiervan is.

Ik heb nu de variabelen los van elkaar in de regressieanalyse ingevoerd en ben erachter dat de hoge r square change het resultaat is van 2 onafhankelijke variabelen die best hoog met elkaar correleren (α= .645). Heeft iemand een idee wat de oorzaak van deze hoge r square change is en wat ik hieraan kan doen?

Alvast bedankt!

[ Bericht 1% gewijzigd door Bruinvis op 29-12-2015 13:09:43 ]
pi_158635169
Multicollineariteit.
Aldus.
pi_158639240
quote:
0s.gif Op dinsdag 29 december 2015 13:04 schreef Bruinvis het volgende:
Hi allemaal,

Na wat feedback van mijn begeleider ben ik mijn analyse (meervoudige regressieanalyse) aan het herschrijven. 1 van de punten die ze opnoemde was dat het verschil tussen de Adjusted R squares die ik heb gevonden, namelijk van .062 (model 1 met controlevariabelen) naar .805 (model 2 met vier onafhankelijke variabelen) aardig onmogelijk is. Na alles opnieuw ingevoerd te hebben kom ik op hetzelfde uit, en snap niet wat de oorzaak hiervan is.

Ik heb nu de variabelen los van elkaar in de regressieanalyse ingevoerd en ben erachter dat de hoge r square change het resultaat is van 2 onafhankelijke variabelen die best hoog met elkaar correleren (α= .645). Heeft iemand een idee wat de oorzaak van deze hoge r square change is en wat ik hieraan kan doen?

Alvast bedankt!
Klinkt inderdaad zoals Z al aangaf als het probleem van Multicollineariteit.

Kijk maar eens naar de formule van hoe de R-squared berekend wordt als je 2 voorspellende variabelen zou hebben:



Deze formule generaliseert ook naar hogere dimensies (dus met 4 voorspellers is het hetzelfde idee). In de formule betekent de r(1,2) de correlatie tussen voorspellende variabele 1 en 2. Als deze correlatie heel klein is, of zelfs 0 (wat dus het geval is als ze onafhankelijk zijn van elkaar) vallen grote delen van de formule weg omdat deze 0 zijn. Maar als de r(1,2) groot is, dan gaat de R squared richting de 1 (en een R-squared van 1 is nooit een goed teken aangezien je data dan perfect voorspeld wordt en dat is niet de bedoeling)

Er zijn verschillende manieren om dit probleem te behandelen, afhankelijk van je kennis en vaardigheid met statistiek. Mensen die daar wat vaardiger in zijn zouden kunnen proberen of een vorm van penalized regression het probleem oplost (Ridge regression bv.) of ipv regressie een andere methode proberen als die past bij de dataset. Beginners zullen moeten proberen om de 2 variabelen die sterk met elkaar correleren, proberen samen te voegen. Eentje van de 2 gewoon niet meenemen is ook een optie, maar ja, dan gooi je dus een hoop informatie weg en ik kan me voorstellen dat het niet leuk is om een onderzoek op te stellen met 4 voorspellers en er vervolgens 1 niet kunnen gebruiken. Andere optie is om het gewoon zo te laten, maar ja dan moet je dus wel uitleggen dat de gevonden R-squared eigenlijk nergens meer op slaat, en waarom.
pi_158643034
Bedankt voor jullie reacties! Mijn kennis van statistiek is basis dus ik heb geprobeerd de 2 variabelen samen te voegen, maar dat haalde helaas niks uit qua R-squared. Ik haal daarom toch maar 1 van de 2 variabelen uit de analyse. Idd jammer, maar dan slaat het in ieder geval nog ergens op (hoop ik).

Wat ik dan alleen nog niet begrijp is dat de adjusted r-squared nog steeds naar ,60 stijgt in model 2, terwijl ik geen tekens van multicollineariteit kan ontdekken (VIF waarden rond de 1.0 en onderlinge correlaties tussen de onafhankelijke variabelen zijn niet hoger dan .48).

Ik ben allang blij dat het de r-squared ,80 naar ,60 is gedaald maar toch lijkt dat me nog steeds erg hoog. Hebben jullie een idee of er nog een andere oorzaak kan zijn? Of is dit een acceptabele waarde?
pi_158643822
quote:
0s.gif Op dinsdag 29 december 2015 18:29 schreef Bruinvis het volgende:
Bedankt voor jullie reacties! Mijn kennis van statistiek is basis dus ik heb geprobeerd de 2 variabelen samen te voegen, maar dat haalde helaas niks uit qua R-squared. Ik haal daarom toch maar 1 van de 2 variabelen uit de analyse. Idd jammer, maar dan slaat het in ieder geval nog ergens op (hoop ik).

Wat ik dan alleen nog niet begrijp is dat de adjusted r-squared nog steeds naar ,60 stijgt in model 2, terwijl ik geen tekens van multicollineariteit kan ontdekken (VIF waarden rond de 1.0 en onderlinge correlaties tussen de onafhankelijke variabelen zijn niet hoger dan .48).

Ik ben allang blij dat het de r-squared ,80 naar ,60 is gedaald maar toch lijkt dat me nog steeds erg hoog. Hebben jullie een idee of er nog een andere oorzaak kan zijn? Of is dit een acceptabele waarde?
Waarom denk je dat een hoge r-squared slecht is?

Wat is eigenlijk hoog?

Het centrale idee bij statistiek is dat al die cijfertjes niet een absoluut natuurkundig gegeven zijn die zomaar uit de lucht komen vallen... ze zijn het resultaat van formules waar weer allemaal andere cijfertjes ingestopt zijn, en die formules zijn ergens, op een gegeven moment, ook maar bedacht door iemand, die er voor koos om er een bepaalde interpretatie aan te geven.

Weet je wat een R-squared is en waar het voor staat?

Dan weet je ook of een R-squared van 0.6 of 0.8 (of wat dan ook) in jou geval hoog of laag is :)
pi_158647441
Als ik het goed heb begrepen staat het percentage van R-squared voor de verklaring van de variantie in de afhankelijke variabele (in mijn geval is de afhankelijke variabele de motivatie om ergens aan mee te doen). Dus de variantie in die motivatie is in mijn geval voor 80 of 60% afhankelijk van de variabelen in mijn model.

Ik vind de r-squared van 0.8 vooral hoog in vergelijking met mijn eerste model, waar alleen de controlevariabelen in zitten en maar 0.06 verklaart. En als ik naar andere onderzoeken kijk, waar ik het mijne op gebaseerd heb, is 80% heel hoog. Maar waardoor het in mijn geval komt (buiten multicollineariteit), dat snap ik dan helaas weer net niet.

[ Bericht 0% gewijzigd door Bruinvis op 29-12-2015 20:49:52 ]
pi_158656884
quote:
1s.gif Op dinsdag 29 december 2015 20:19 schreef Bruinvis het volgende:
Als ik het goed heb begrepen staat het percentage van R-squared voor de verklaring van de variantie in de afhankelijke variabele (in mijn geval is de afhankelijke variabele de motivatie om ergens aan mee te doen). Dus de variantie in die motivatie is in mijn geval voor 80 of 60% afhankelijk van de variabelen in mijn model.

Ik vind de r-squared van 0.8 vooral hoog in vergelijking met mijn eerste model, waar alleen de controlevariabelen in zitten en maar 0.06 verklaart. En als ik naar andere onderzoeken kijk, waar ik het mijne op gebaseerd heb, is 80% heel hoog. Maar waardoor het in mijn geval komt (buiten multicollineariteit), dat snap ik dan helaas weer net niet.
Klopt.

En tja, zonder verder zelf de data te bekijken kan ik het verder ook niet beoordelen.
pi_158664551
Ja dat begrijp ik, ik ben iig al een stuk geholpen dus dank daarvoor!
pi_158668855
Het weglaten van een variabele maakt je model ook makkelijker te interpreteren niet? Dat is ook een winst.
Aldus.
pi_158733485
Een Excelvraagje aangezien ik weinig ervaring heb met dit programma.

Weet iemand hoe je handig deze cijfers sorteert?
http://www.theguardian.co(...)dustry-atlas-smoking
Als je dat kopiëert en in Excel plaatst dan komt het keurig in kolommen te staan maar wanneer je sorteert (A-Z) dan zet Excel de integers bovenaan en de decemialen daaronder (met daar tussenin de streepjes maar dat doet er nu even niet toe). Ik heb geprobeerd om van al die cellen hetzelfde getalformat te maken maar Excel gebruikt dan hardnekkig een komma voor de integers terwijl het een punt blijft gebruiken voor de decimalen.
Het is vast zoiets wat heel erg simpel is maar waar je eventjes naar kan zoeken.
ING en ABN investeerden honderden miljoenen euro in DAPL.
#NoDAPL
pi_158733741
Ik had het kunnen weten: Libreoffice kan het wel direct normaal sorteren. :')
Daarom een extra vraagje over Libre Office, wat is bij Libre Office het equivalent van "end-mode"? Bij Excel kan je direct naar de laatste regel in een kolom gaan door eerst op end te klikken (end-mode activeren) en vervolgens op de onderste pijl (stom toeval dat ik dat ontdekte doordat ik even wat uitprobeerde).
ING en ABN investeerden honderden miljoenen euro in DAPL.
#NoDAPL
pi_158739961
Dat met punten en komma's is een probleem van excel/libreoffice in combinatie met de taal van je OS. Naar beneden kun je met page down.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_158744090
quote:
0s.gif Op vrijdag 1 januari 2016 17:32 schreef wimjongil het volgende:
Dat met punten en komma's is een probleem van excel/libreoffice in combinatie met de taal van je OS. Naar beneden kun je met page down.
Typisch Microsoft. :?
Bij Libre-office is het geen probleem, die kan daar wel mee omgaan en sorteert het keurig terwijl de input identiek is.
ING en ABN investeerden honderden miljoenen euro in DAPL.
#NoDAPL
pi_158745109
quote:
0s.gif Op vrijdag 1 januari 2016 20:44 schreef Bram_van_Loon het volgende:

[..]

Typisch Microsoft. :?
Bij Libre-office is het geen probleem, die kan daar wel mee omgaan en sorteert het keurig terwijl de input identiek is.
Vertel Microsoft gewoon wat jij als decimaal scheidingsteken wil, en het komt helemaal goed. Excel neemt standaard de instelling van je OS over (afhankelijk van je taal/locatie). Je kan het ook handmatig aanpassen in Excel.
pi_158745963
quote:
1s.gif Op vrijdag 1 januari 2016 21:09 schreef sylvesterrr het volgende:

[..]

Vertel Microsoft gewoon wat jij als decimaal scheidingsteken wil, en het komt helemaal goed. Excel neemt standaard de instelling van je OS over (afhankelijk van je taal/locatie). Je kan het ook handmatig aanpassen in Excel.
Volgens mij had ik met LibreOffice op Linux ook dat probleem een keer. Kwestie van even instellen en klaar is kees. Is dus niet iets van Microsoft.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_158747950
quote:
0s.gif Op vrijdag 1 januari 2016 21:31 schreef wimjongil het volgende:

[..]

Volgens mij had ik met LibreOffice op Linux ook dat probleem een keer. Kwestie van even instellen en klaar is kees. Is dus niet iets van Microsoft.
Ik heb er ook last van als ik csv'tjes inlees en het decimaal scheidingsteken van de ene op de andere dag verandert.
pi_158848417
Ik wil voor een variabele uitgesplitst naar acht groepen per groep de sd uitrekenen. Dat is makkelijk. Maar ik wil dat ook uitrekenen voor de rest van de groepen. Dus:
Groep 1 en Groep 2 t/m Groep 8
Groep 2 en Groep 1 + Groep 3 t/m Groep 8
Groep 3 en Groep 1 + Groep 2 en Groep 4 t/m Groep 8
enzovoorts.

Is er in SPSS een type 'contrast' waar dat mee kan? Of een andere slimme oplossing? Er is volgens mijn geen contrast-type voor één groep ten opzichte van de rest.
Aldus.
pi_158848654
quote:
2s.gif Op dinsdag 5 januari 2016 15:31 schreef Z het volgende:
Ik wil voor een variabele uitgesplitst naar acht groepen per groep de sd uitrekenen. Dat is makkelijk. Maar ik wil dat ook uitrekenen voor de rest van de groepen. Dus:
Groep 1 en Groep 2 t/m Groep 8
Groep 2 en Groep 1 + Groep 3 t/m Groep 8
Groep 3 en Groep 1 + Groep 2 en Groep 4 t/m Groep 8
enzovoorts.

Is er in SPSS een type 'contrast' waar dat mee kan? Of een andere slimme oplossing? Er is volgens mijn geen contrast-type voor één groep ten opzichte van de rest.
Gewoon snel even zelf kolommen van de groepen maken in Excel.
pi_158849023
Hmja, het gaat helaas niet om 1 variabele maar om 128 ...
Aldus.
abonnement Unibet Coolblue
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')