abonnement Unibet Coolblue Bitvavo
pi_138731260
Iemand heeft de vorige dicht laten gaan zonder een nieuwe te openen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138759811
Ja, en nu is die andere verstopt? :')

Even zoeken.
Ja doei.
pi_138759951
Nou, kreeg net mail en heb toch een (omgerekend) 9 ofzo voor een opdracht óver SPSS/Quants.

Jolijt, ik schijn het een beetje te begrijpen!
Ja doei.
pi_138762856
Spreekbeurt over SPSS?
Aldus.
pi_138762914
Nee, kritisch/analytisch paper over een onderzoek dat gebruik maakt van quants/spss. :+
Ja doei.
pi_138762933
quote:
0s.gif Op donderdag 10 april 2014 16:35 schreef oompaloompa het volgende:
Iemand heeft de vorige dicht laten gaan zonder een nieuwe te openen.
Al bijna een week zonder dat er iemand een SPSS vraag heeft, FOK! gaat vooruit. :P
pi_138762944
quote:
0s.gif Op vrijdag 11 april 2014 12:26 schreef motorbloempje het volgende:
Nou, kreeg net mail en heb toch een (omgerekend) 9 ofzo voor een opdracht óver SPSS/Quants.

Jolijt, ik schijn het een beetje te begrijpen!
Netjes! :Y
pi_138762953
Interessant. Wat is je grootste punt van kritiek?
Aldus.
pi_138764874
quote:
0s.gif Op vrijdag 11 april 2014 13:55 schreef motorbloempje het volgende:
Nee, kritisch/analytisch paper over een onderzoek dat gebruik maakt van quants/spss. :+
nice :)

Ik zat te denken, is het misschien nuttig om in plaats van de SPSS thread er de statistiekthread van te maken? Het gaat regelmatig over algemene statistiek vragen en soms ook over andere programmas als excel / R / etc.

quote:
0s.gif Op vrijdag 11 april 2014 13:56 schreef Operc het volgende:

[..]

Al bijna een week zonder dat er iemand een SPSS vraag heeft, FOK! gaat vooruit. :P
De laatste post was een vraag, maar als je niet de moeite neemt een nieuwe thread te openen neem ik niet de moeite hem te beantwoorden :P
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138768730
quote:
0s.gif Op vrijdag 11 april 2014 15:01 schreef oompaloompa het volgende:

[..]

nice :)

Ik zat te denken, is het misschien nuttig om in plaats van de SPSS thread er de statistiekthread van te maken? Het gaat regelmatig over algemene statistiek vragen en soms ook over andere programmas als excel / R / etc.

Goed plan. Misschien iets als "Statistiek en SPSS topic" van maken? Aangezien er anders misschien mensen zijn die denken dat hun SPSS vraag er niet thuis hoort en er weer een wildgroei aan SPSS topics komt.
quote:
De laatste post was een vraag, maar als je niet de moeite neemt een nieuwe thread te openen neem ik niet de moeite hem te beantwoorden :P
Terecht. :P
pi_138768759
:s)
Ja doei.
pi_138768984
quote:
0s.gif Op vrijdag 11 april 2014 17:04 schreef motorbloempje het volgende:
:s)
Dankje ^O^
pi_138771386
:o
pi_138793490
ELI5: Order Statistics. Het kwam voor op een statistiektentamen en ik snapte er de ballen van.
pi_138793842
quote:
0s.gif Op zaterdag 12 april 2014 12:50 schreef Novermars het volgende:
vo
Als je een sample met waarnemingen x1, x2, ... , xn hebt, dan is x(1) de kleinste waarneming van je sample en x(n) de grootste.

Mocht je sample dus x1 = 4, x2 = 8, x3 = 2 zijn, dan heb je x(1) = 2, x(2) = 4, x(3) = 8.
Op dinsdag 23 november 2010 02:22 schreef Braddie het volgende:
Haal van internet af man.
pi_138794082
quote:
0s.gif Op zaterdag 12 april 2014 13:12 schreef wimjongil het volgende:

[..]

Als je een sample met waarnemingen x1, x2, ... , xn hebt, dan is x(1) de kleinste waarneming van je sample en x(n) de grootste.

Mocht je sample dus x1 = 4, x2 = 8, x3 = 2 zijn, dan heb je x(1) = 2, x(2) = 4, x(3) = 8.
Zover was ik al ja! Maar bijvoorbeeld zo'n vraag:
Consider a random sample  X_1,X_2,...,X_n from a uniform distribution  u(x;a,a+1), with order statistics X_{(1)},X_{(2)},...,X_{(n)}.
1) Prove the density of the minimum  X_{(1)} is given by  n(1+a - x)^{n-1} for  a \leq x \leq a+1 and zero elsewhere.
2) Consider two estimators of {a} given by \hat{a}_1 = a_{mm}, which is the method of moments estimator of {a}, and \hat{a}_2 = X_{(1)} - \dfrac{1}{n+1}, which is based on the minimum. Compare the estimators in terms of bias and efficiency. Show the outcome depends on {n}.
(Tentamen Probability Distributions van afgelopen dinsdag)

En, had jij nou ook Multivariate van gisteren gemaakt? Zo ja, wat vond jij van die toets?
pi_138797473
Stomme vraag, maar wat betekent die x in de notatie van de distributie? Ik heb alleen nog maar uniforme distributies gezien genoteerd als U(begin, einde).
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_138806466
quote:
0s.gif Op zaterdag 12 april 2014 16:27 schreef oompaloompa het volgende:
Stomme vraag, maar wat betekent die x in de notatie van de distributie? Ik heb alleen nog maar uniforme distributies gezien genoteerd als U(begin, einde).
Je hebt een kansdichtheid functie. En een functie moet altijd input en output hebben, al lijkt deze overbodig.
pi_139156530
Als statistiek nitwit een vraag.

Stel... ik heb 3.349 tekstuele beoordelingen, ik wil gaan bepalen wat voor soort beoordelingen het meest voorkomen en daar actie op ondernemen. Omdat het doorlezen van 3.500 blokken tekst belachelijk veel werk is, ga ik met een steekproef werken. Een online hulpmiddel leert mij het volgende: met een 4% foutmarge en 95% betrouwbaarheid heb ik een steekproef nodig van 510.

Vervolgens random 510 beoordelingen genomen, allemaal gelezen en netjes gecategoriseerd. 236 van de beoordelingen bleken echter onvoldoende ingevuld/verkeerd gelabeld/andere vorm van onbruikbaar. Ik ga dus mijn plan baseren op 510-236 = 274 beoordelingen.

Dat lijkt ineens erg weinig. Dus vraag ik me af: zijn die 274 dan wel representatief?
Ene mannetje op mijn schouder zegt: nee, te weinig. Andere mannetje op andere schouder zegt: ja, maar als blijkbaar uit jouw steekproef 236 van de 510 onbruikbaar zijn en je hebt random getrokken, dan betekent dat ongeveer 3.349 / 510 * 236 = 1.550 van álle beoordelingen onbruikbaar zijn. Dus die 274 zijn verder representatief voor de hele populatie....

Heeft dat tweede mannetje gelijk? Mijn gut feeling zegt van wel, maar ik kan het buiten bovenstaande benadering niet onderbouwen.
Da gao nie nou!
pi_139183029
Hier mensen met kennis van SAS (Enterprise Guide)?
pi_139186986
quote:
0s.gif Op dinsdag 22 april 2014 20:05 schreef vigier het volgende:
Als statistiek nitwit een vraag.

Stel... ik heb 3.349 tekstuele beoordelingen, ik wil gaan bepalen wat voor soort beoordelingen het meest voorkomen en daar actie op ondernemen. Omdat het doorlezen van 3.500 blokken tekst belachelijk veel werk is, ga ik met een steekproef werken. Een online hulpmiddel leert mij het volgende: met een 4% foutmarge en 95% betrouwbaarheid heb ik een steekproef nodig van 510.

Vervolgens random 510 beoordelingen genomen, allemaal gelezen en netjes gecategoriseerd. 236 van de beoordelingen bleken echter onvoldoende ingevuld/verkeerd gelabeld/andere vorm van onbruikbaar. Ik ga dus mijn plan baseren op 510-236 = 274 beoordelingen.

Dat lijkt ineens erg weinig. Dus vraag ik me af: zijn die 274 dan wel representatief?
Ene mannetje op mijn schouder zegt: nee, te weinig. Andere mannetje op andere schouder zegt: ja, maar als blijkbaar uit jouw steekproef 236 van de 510 onbruikbaar zijn en je hebt random getrokken, dan betekent dat ongeveer 3.349 / 510 * 236 = 1.550 van álle beoordelingen onbruikbaar zijn. Dus die 274 zijn verder representatief voor de hele populatie....

Heeft dat tweede mannetje gelijk? Mijn gut feeling zegt van wel, maar ik kan het buiten bovenstaande benadering niet onderbouwen.
Dit ligt ver buiten mijn kennisgebied, maar het lijkt me af te hangen van de vraag die je wilt beantwoorden.

Als je conclusies wilt maken puur op basis van bruikbare beoordelingen uit de populatie zou ik je berekening in het begin nogmaals uitvoeren maar nu met een basissample van 3349-1550 = 1799 en dan die uitkomst als aantal bruikbare beoordelingen nemen.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_139199887
quote:
0s.gif Op woensdag 23 april 2014 17:55 schreef oompaloompa het volgende:

[..]

Dit ligt ver buiten mijn kennisgebied, maar het lijkt me af te hangen van de vraag die je wilt beantwoorden.

Als je conclusies wilt maken puur op basis van bruikbare beoordelingen uit de populatie zou ik je berekening in het begin nogmaals uitvoeren maar nu met een basissample van 3349-1550 = 1799 en dan die uitkomst als aantal bruikbare beoordelingen nemen.
Thnx voor je reactie. Het vervelende is dat ik vooraf niet weet welke 1.550 het zijn. Daarvoor moet ik ze allemaal doorlezen. En dat is nu juist de reden dat ik met een steekproef wil werken. Om je een idee te geven, de 3.349 beoordelen samen bevatten ruim 290.000 woorden, dus ongeveer 580 pagina's.
Da gao nie nou!
pi_139200439
quote:
0s.gif Op woensdag 23 april 2014 23:14 schreef vigier het volgende:

[..]

Thnx voor je reactie. Het vervelende is dat ik vooraf niet weet welke 1.550 het zijn. Daarvoor moet ik ze allemaal doorlezen. En dat is nu juist de reden dat ik met een steekproef wil werken. Om je een idee te geven, de 3.349 beoordelen samen bevatten ruim 290.000 woorden, dus ongeveer 580 pagina's.
Dat valt me stiekem nog mee eigenlijk. :P Geen mogelijkheid om ze allemaal even door te nemen? Nog geen 100 woorden per beoordeling. (Ik weet niet hoelang het duurt om 1 beoordeling door te spitten op de voor jou belangrijke data.)
pi_139200543
quote:
0s.gif Op woensdag 23 april 2014 23:26 schreef Operc het volgende:

[..]

Dat valt me stiekem nog mee eigenlijk. :P Geen mogelijkheid om ze allemaal even door te nemen? Nog geen 100 woorden per beoordeling. (Ik weet niet hoelang het duurt om 1 beoordeling door te spitten op de voor jou belangrijke data.)
Ik ben ongeveer anderhalve minuut gemiddeld met een beoordeling bezig om deze te categoriseren. Dat is 84 uur in totaal. Zoveel tijd heb ik bij lange na niet :'(
Da gao nie nou!
pi_139200658
quote:
0s.gif Op woensdag 23 april 2014 23:28 schreef vigier het volgende:

[..]

Ik ben ongeveer anderhalve minuut gemiddeld met een beoordeling bezig om deze te categoriseren. Dat is 84 uur in totaal. Zoveel tijd heb ik bij lange na niet :'(
Nog maar 76 uur aangezien je er al ruim 500 hebt gedaan. :P
Ik snap dat het veel is ja. Is het voor een scriptie? Stellen ze eisen aan het resultaat? Het mooiste is om alles mee te nemen, aangezien het relevante data is en je blijkbaar de dataset toch al ter beschikking hebt. Maar het hangt een beetje af van het doel van je onderzoek hoe belangrijk dit precies is.
pi_139201179
quote:
0s.gif Op woensdag 23 april 2014 23:31 schreef Operc het volgende:

[..]

Nog maar 76 uur aangezien je er al ruim 500 hebt gedaan. :P
Ik snap dat het veel is ja. Is het voor een scriptie? Stellen ze eisen aan het resultaat? Het mooiste is om alles mee te nemen, aangezien het relevante data is en je blijkbaar de dataset toch al ter beschikking hebt. Maar het hangt een beetje af van het doel van je onderzoek hoe belangrijk dit precies is.
Het is voor een scriptie inderdaad. Ze zijn akkoord met een steekproef, maar dan wel netjes uitgevoerd :)
Het gaat om klachten van klanten. Waar ik voor moet zorgen is dat ik uit die teksten handige categorieën maak, vervolgens ga kijken hoeveel klachten per categorie voorkomen en daarmee bepalen welke categorie de meeste prio moet krijgen om het totaal met een X percentage te kunnen reduceren.
Lijkt me dus niet dat ik daar 100% voor nodig heb...
Da gao nie nou!
pi_139206513
Hi,

Ik heb een (denk ik) hele simpele vraag over SPSS.

Ik heb een variabele 'totaal aantal woorden advertentie' en een variabele 'totaal aantal Engelse woorden advertentie'.

Een derde variabele 'percentage Engels advertentie' wil ik graag automatisch laten invullen door de eerste twee variabelen te combineren.

Is dat mogelijk in SPSS en zo ja, welke test gebruik ik hiervoor?

Alvast bedankt!
I like you more than pizza, and I really like pizza.
pi_139208156
In Stata kan je een nieuwe variabele maken, weet niet hoe dat in SPSS zit.
pi_139208189
1
2
compute percentage=(var_engels)/(var_totaal)*100.
execute.

Of, als je niet via syntax werkt (niet echt aan te raden): Transform -> Compute variable
Target variable: percentage
Numeric expression: (var_engels)/(var_totaal)*100
pi_139208564
quote:
0s.gif Op donderdag 24 april 2014 10:44 schreef dotKoen het volgende:

[ code verwijderd ]

Of, als je niet via syntax werkt (niet echt aan te raden): Transform -> Compute variable
Target variable: percentage
Numeric expression: (var_engels)/(var_totaal)*100
Bedankt! Dit was m:)
I like you more than pizza, and I really like pizza.
pi_139221633
Even ter controle een vraagje, omdat de uitkomsten zo makkelijk lijken.

Ik heb een aantal deelvragen om te beantwoorden dmv SPSS, dit zijn:

1.1. Hoeveel Engelse woorden bevatten de advertenties gemiddeld?

1.2. Hoeveel procent van de woorden in de advertentie is Engels?

Ik heb deze vragen beantwoord nav deze output:

Vraag 1.1.

Ik had een variabele 'aantal Engelse woorden in de advertentie' en een variabele 'totaal aantal woorden advertentie'
Ik heb alleen de eerste variabele gebruikt:

Descriptive Statistics

N = 55
Minimum = 5
Maximum = 128
Mean = 24,31

Antwoord: 24 woorden

Vraag 1.2.

Descriptive Statistics
N = 55
Minimum = 7
Maximum = 100
Mean = 38,19
Std. Deviation = 24,852

Heb hier geantwoord: 38,2%.

Ik weet niet of het klopt, omdat het vrij simpel lijkt (en dan ga ik twijfelen XD)
I like you more than pizza, and I really like pizza.
pi_139221882
En dan heb ik nog een (hopelijk laatste) vraagje. Ik moet de samenhang bepalen:

Hangt het aantal Engelse woorden samen met het gebruikte schrift
(westers schrift of niet-westers schrift)?

Aantal EN woorden is een ratio variabele en gebruikte schrift is een nominale variabele.
Moet ik die ratio variabele eerst hercoderen?
I like you more than pizza, and I really like pizza.
pi_139222042
Je antwoord op vraag 1.1 lijkt me correct.

De vraag 1.2 is niet zo heel duidelijk, ze vragen naar 'de advertentie'. Als jij denkt dat de vraagsteller 'wat is het gemiddelde percentage Engelse woorden in alle advertenties' bedoelt, dan klopt je antwoord.
pi_139222070
quote:
0s.gif Op donderdag 24 april 2014 18:32 schreef Amsterdam227 het volgende:
En dan heb ik nog een (hopelijk laatste) vraagje. Ik moet de samenhang bepalen:

Hangt het aantal Engelse woorden samen met het gebruikte schrift
(westers schrift of niet-westers schrift)?

Aantal EN woorden is een ratio variabele en gebruikte schrift is een nominale variabele.
Moet ik die ratio variabele eerst hercoderen?
Dat ligt volledig aan wat voor statistische toets je wilt doen.
pi_139222161
Bedankt voor je hulp. Dat maakt niet heel veel uit voor mij, wil graag de samenhang kunnen vinden. Ik wil graag weten welke toets ik moet doen, omdat ik een verkeerde output krijg als ik nu crosstabs doe met deze twee variabelen. (Dat lijkt me ook logisch, maar ik kom er verder niet meer uit..)
I like you more than pizza, and I really like pizza.
pi_139222424
quote:
0s.gif Op donderdag 24 april 2014 18:44 schreef Amsterdam227 het volgende:
Bedankt voor je hulp. Dat maakt niet heel veel uit voor mij, wil graag de samenhang kunnen vinden. Ik wil graag weten welke toets ik moet doen, omdat ik een verkeerde output krijg als ik nu crosstabs doe met deze twee variabelen. (Dat lijkt me ook logisch, maar ik kom er verder niet meer uit..)
Je vragen zijn wel heel simpel, je kunt deze antwoorden makkelijk ergens vinden. Niet dat ik je niet wil helpen natuurlijk :). In SPSS zit een Statistics coach, waarin je in een stappenplan kunt aangeven wat voor soort data je hebt en vervolgens geeft het een aantal analyseopties. In dit geval heb je 1 continue uitkomstvariabele en 1 categoriale predictorvariabele, bestaande uit 2 categorieën. Daarmee kom je dan op een onafhankelijke t-toets terecht indien die continue variabele aan de voorwaarden daarvoor voldoet (anders een non-parametrische test).

Mocht je wel crosstabs willen gebruiken, dan moet je uiteraard dat percentage Engelse woorden in categorieën ophakken. Hoe dat technisch moet is niet zo moeilijk (Transform > Recode into different variables), welk afkappunt je moet kiezen is lastiger. Wellicht is het nuttig om eerst via Explore eens te kijken hoe je data eruit zien.

[ Bericht 3% gewijzigd door dotKoen op 24-04-2014 19:02:11 ]
pi_139222489
Haha, ik weet het, sorry :$
Het is alleen dat ik de afgelopen dagen alleen maar bezig ben geweest met SPSS en nu lijken de simpelste tests opeens rocket science.
Heel erg bedankt voor je hulp!
I like you more than pizza, and I really like pizza.
pi_139315201
Wie kan me helpen?

Ik wil in general linear model een analyse doen met één afhankelijke variabele (dv; ordinaal), twee onafhankelijke variabelen (iv 1 en iv2; beide nominaal) en een controlevariabele (cv; ordinaal). De controlevariabele moet ik invoeren als:
glm dv by iv1 iv2 with cv
/design iv1 iv2 iv1*iv2 iv1*cv iv2*cv iv1*iv2*cv

En uiteraard nog wat andere commando's in de syntax :)

Als ik dit doe, krijg ik een prachtige anova-tabel met de effecten van al de gespecificeerde designs. Nu wil ik uiteraard beter naar die effecten kijken en uitvinden welke celvergelijkingen significant zijn en welke niet. Normaal gesproken (= zonder zo'n controlevariabele) doe ik dat met de emmeans-functie. Als ik dat nu doe, dan wordt de controlevariabele gebruikt als covariaat en dat wil ik niet. Ik wil alleen dat de controlevariabele een deel van de errorvariantie vermindert, zonder de gemiddelden te vergelijken alsof de groepen gelijk scoren op de covariaat.

Als ik de controlevariabele invoer als "by"-factor, dan gebruikt glm de variabele alsof ik een 3e iv heb en dat is ook niet de bedoeling (uitbreiding van het design dus).

Hoe kan ik de anova-toetsen nader inspecteren met een controlevariabele?
  maandag 28 april 2014 @ 10:34:19 #40
283085 TWP
kassalade
pi_139333328
Ik heb ook een vraag, want ik loop nogal vast bij een bepaalde analyse.

Voor m'n onderzoek heb ik een pre-test uitgevoerd waarbij respondenten hun oordeel moesten geven over gesprekstechnieken die voorkomen in vijf verschillende video's. In de dataset heb ik nu dus voor elk van de vijf video's beoordelingen van negen verschillende gesprekstechnieken. Bijvoorbeeld: V1_T1 (waarde/beoordeling voor video 1, techniek 1), V1_T2 (waarde/beoordeling voor video 1, techniek 2) etc.

Nu wil ik graag een analyse uitvoeren waarbij ik de video kan selecteren die over het algemeen het hoogst scoort op de verschillende categorieën. Dus: Welke video scoort overall het hoogst?

Wat is hiervoor de beste methode? Alvast ontzettend bedankt!
:)
pi_139334106
Als ik het goed begrijp moet je dus eerst een variabele V1_totaal maken? Hoe je die moet maken is afhankelijk van wat voor score het is. Zijn al die technieken op dezelfde manier gescoord en even belangrijk? Dan kun je ze optellen en delen (recode into different variable), zou ik zeggen.
pi_139334185
quote:
17s.gif Op maandag 28 april 2014 10:34 schreef TWP het volgende:
Ik heb ook een vraag, want ik loop nogal vast bij een bepaalde analyse.

Voor m'n onderzoek heb ik een pre-test uitgevoerd waarbij respondenten hun oordeel moesten geven over gesprekstechnieken die voorkomen in vijf verschillende video's. In de dataset heb ik nu dus voor elk van de vijf video's beoordelingen van negen verschillende gesprekstechnieken. Bijvoorbeeld: V1_T1 (waarde/beoordeling voor video 1, techniek 1), V1_T2 (waarde/beoordeling voor video 1, techniek 2) etc.

Nu wil ik graag een analyse uitvoeren waarbij ik de video kan selecteren die over het algemeen het hoogst scoort op de verschillende categorieën. Dus: Welke video scoort overall het hoogst?

Wat is hiervoor de beste methode? Alvast ontzettend bedankt!
Geruik Compute Variable om een totaalscore per video te maken. Daarna kun je bijvoorbeeld via Descriptives het gemiddelde daarvan berekenen. De video met de hoogste gemiddelde totaalscore is "de beste."
  maandag 28 april 2014 @ 11:05:58 #43
283085 TWP
kassalade
pi_139334257
quote:
0s.gif Op maandag 28 april 2014 11:00 schreef dotKoen het volgende:
Als ik het goed begrijp moet je dus eerst een variabele V1_totaal maken? Hoe je die moet maken is afhankelijk van wat voor score het is. Zijn al die technieken op dezelfde manier gescoord en even belangrijk? Dan kun je ze optellen en delen (recode into different variable), zou ik zeggen.
quote:
1s.gif Op maandag 28 april 2014 11:03 schreef Operc het volgende:

[..]

Geruik Compute Variable om een totaalscore per video te maken. Daarna kun je bijvoorbeeld via Descriptives het gemiddelde daarvan berekenen. De video met de hoogste gemiddelde totaalscore is "de beste."
Bedankt voor de snelle reactie.

Ik heb inderdaad een gemiddelde score berekend van de video's. Alle categorieën waren inderdaad even belangrijk en geschaald van 1 t/m 5.

Is het werkelijk zo simpel? Ik zat echt veel te moeilijk te denken dan :') Ga het meteen even uitproberen.
:)
pi_139337431
quote:
0s.gif Op maandag 28 april 2014 11:05 schreef TWP het volgende:

[..]

[..]

Bedankt voor de snelle reactie.

Ik heb inderdaad een gemiddelde score berekend van de video's. Alle categorieën waren inderdaad even belangrijk en geschaald van 1 t/m 5.

Is het werkelijk zo simpel? Ik zat echt veel te moeilijk te denken dan :') Ga het meteen even uitproberen.
Als je alle videos op dezelfde manier hebt laten beoordelen wel, dus ook in dezelfde richting (dat 1 laag is en 5 hoog etc.)
pi_139471538
Ik zou graag achter iedere case in SPSS de regressiecoëfficiënt van een onafhankelijke variabele op een afhankelijke variabele printen, en dit per subgroep. Handmatig is niet te doen aangezien ik een zeer groot aantal subgroepen heb.

Kan dit op enigerlei wijze dmv bijv. deze syntax?

AGGREGATE
OUTFILE=* MODE=ADDVARIABLES OVERWRITE=YES
/BREAK= SUBGROEP
/SCHATTER= ????.
pi_139472529
Event er verduidelijking: Ik kan de resultaten wel op m'n scherm krijgen dmv de volgende syntax

sort cases by SUBGROEP.
split file by SUBGROEP.
regression
/dep AFHANKELIJK
/method = enter ONAFHANKELIJK.
split file off.

De vraag is nu hoe ik de coefficienten uit de afzondelijke regressies aanroep en achter mijn afzonderlijke cases geprint krijg.
pi_139482298
Ik heb een vraag over de ANOVA icm Homogeneity of variance test.

Ik wil nagaan of de gemiddelde leeftijd van de deelnemers in drie condities niet significant van elkaar verschilt (dit is een controlecheck voorafgaand aan de resultaten van het hoofdonderzoek waarin ik effecten meet).

De verschillen blijken niet significant (F (2, 101) = 1.328; p = .270.)

De Levene geeft wel een significante waarde, namelijk .009

De verhouding van de grootste en kleinste standaarddeviatie is groter dan 2: (SD = 10.485 en SD = 13.660)

Wat kan ik hieruit concluderen? Is er nog een post-hoc test die ik kan doen, of is het geen groot probleem dat de variantie niet in elke groep gelijk is?

Alvast bedankt!
I like you more than pizza, and I really like pizza.
  vrijdag 2 mei 2014 @ 14:57:30 #48
219590 oompaloompa
doompadeedee
pi_139488834
quote:
0s.gif Op vrijdag 2 mei 2014 11:29 schreef Amsterdam227 het volgende:
Ik heb een vraag over de ANOVA icm Homogeneity of variance test.

Ik wil nagaan of de gemiddelde leeftijd van de deelnemers in drie condities niet significant van elkaar verschilt (dit is een controlecheck voorafgaand aan de resultaten van het hoofdonderzoek waarin ik effecten meet).

De verschillen blijken niet significant (F (2, 101) = 1.328; p = .270.)

De Levene geeft wel een significante waarde, namelijk .009

De verhouding van de grootste en kleinste standaarddeviatie is groter dan 2: (SD = 10.485 en SD = 13.660)

Wat kan ik hieruit concluderen? Is er nog een post-hoc test die ik kan doen, of is het geen groot probleem dat de variantie niet in elke groep gelijk is?

Alvast bedankt!
Dat ligt er aan waarom je in de eerste plaats die toets uitgevoerd hebt. Als je denkt dat er een relatie bestaat tussen leeftijd en je afhankelijke variabele kun je er het beste voor controleren. Als het gewoon een toets was om te kijken of randomisatie een beetje fatsoenlijk was zou ik het gewoon negeren.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_139493807
quote:
0s.gif Op vrijdag 2 mei 2014 14:57 schreef oompaloompa het volgende:

[..]

Dat ligt er aan waarom je in de eerste plaats die toets uitgevoerd hebt. Als je denkt dat er een relatie bestaat tussen leeftijd en je afhankelijke variabele kun je er het beste voor controleren. Als het gewoon een toets was om te kijken of randomisatie een beetje fatsoenlijk was zou ik het gewoon negeren.
Bedankt!
I like you more than pizza, and I really like pizza.
pi_139494493
Ik zit weer vast met een analyse in SPSS

Ik heb een aantal teksten geanalyseerd op het type schrift en het aandeel van het Engels.

Ik heb drie variabelen:

- totaal aantal woorden in de tekst (ratio)
- totaal aantal Engelse woorden in de tekst (ratio)
- Of de tekst in westers schrift of een mix van westers en niet-westers schrift is opgesteld (nominaal)

Ik moet berekenen hoeveel Engels woorden er gemiddeld voorkomen in de tekst met de mix van westers en niet-westers schrift (dit heb ik gedaan) en hoeveel % van de totale tekst deze Engelse woorden uitmaken. << die laatste kom ik niet uit...

Ik moet volgens mij alle 3 de variabelen gebruiken, maar kom er niet uit hoe ik nou het juiste percentage krijg..

Kan iemand mij helpen?
I like you more than pizza, and I really like pizza.
pi_139494917
Je kunt een nieuwe variabele maken, die het percentage engelse t.o.v. Totaal aantal woorden aangeeft (via compute). Vervolgens kun je een split file doen op schrift en dan via descriptives gemiddelden opvragen. Als je de gemiddelden met elkaar moet vergelijken, dan kun je een anova uitvoeren (maar niet met spkit file!).
pi_139495183
quote:
1s.gif Op vrijdag 2 mei 2014 17:54 schreef babybanaan het volgende:
Je kunt een nieuwe variabele maken, die het percentage engelse t.o.v. Totaal aantal woorden aangeeft (via compute). Vervolgens kun je een split file doen op schrift en dan via descriptives gemiddelden opvragen. Als je de gemiddelden met elkaar moet vergelijken, dan kun je een anova uitvoeren (maar niet met spkit file!).
Bedankt voor je reactie! Ik begrijp niet helemaal wat je bedoelt met 'split file op schrift', sorry. Ik had al wel een variabele 'Percentage Engels in teksten'.

Ik heb nu twee gemiddelden gevonden: De teksten waarin zowel westers als niet-westers schrift voorkwam bleken gemiddeld 22.35 Engelse woorden te bevatten (SD = 14.529). Het gemiddeld totaal aantal woorden in deze teksten was 77.61 (SD = 44.095).

Maar welke variabelen moet ik nu voor de anova gebruiken? Want de gemiddelde waarden zijn geen aparte variabelen.

Ik hoop dat ik niet te vaag ben. Alvast bedankt.
I like you more than pizza, and I really like pizza.
pi_139495420
quote:
0s.gif Op vrijdag 2 mei 2014 18:04 schreef Amsterdam227 het volgende:

[..]

Bedankt voor je reactie! Ik begrijp niet helemaal wat je bedoelt met 'split file op schrift', sorry. Ik had al wel een variabele 'Percentage Engels in teksten'.

Ik heb nu twee gemiddelden gevonden: De teksten waarin zowel westers als niet-westers schrift voorkwam bleken gemiddeld 22.35 Engelse woorden te bevatten (SD = 14.529). Het gemiddeld totaal aantal woorden in deze teksten was 77.61 (SD = 44.095).

Maar welke variabelen moet ik nu voor de anova gebruiken? Want de gemiddelde waarden zijn geen aparte variabelen.

Ik hoop dat ik niet te vaag ben. Alvast bedankt.
Ik heb de anova uitgevoerd en de variabelen 'percentage Engels' en 'gebruikt schrift' gebruikt.
Ik zie wel een gemiddelde score in de descriptives tabel. Mag ik deze gewoon overnemen? de p-waarde is wel significant, of heeft dit niks te maken met de score?
I like you more than pizza, and I really like pizza.
  zaterdag 3 mei 2014 @ 01:22:33 #54
219590 oompaloompa
doompadeedee
pi_139511994
quote:
0s.gif Op vrijdag 2 mei 2014 17:41 schreef Amsterdam227 het volgende:
Ik zit weer vast met een analyse in SPSS

Ik heb een aantal teksten geanalyseerd op het type schrift en het aandeel van het Engels.

Ik heb drie variabelen:

- totaal aantal woorden in de tekst (ratio)
- totaal aantal Engelse woorden in de tekst (ratio)
- Of de tekst in westers schrift of een mix van westers en niet-westers schrift is opgesteld (nominaal)

Ik moet berekenen hoeveel Engels woorden er gemiddeld voorkomen in de tekst met de mix van westers en niet-westers schrift (dit heb ik gedaan) en hoeveel % van de totale tekst deze Engelse woorden uitmaken. << die laatste kom ik niet uit...

Ik moet volgens mij alle 3 de variabelen gebruiken, maar kom er niet uit hoe ik nou het juiste percentage krijg..

Kan iemand mij helpen?
is dat niet gewoon hoeveelheid engelse woorden / totale aantal woorden? Of mis ik nu iets?
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_139516454
quote:
0s.gif Op zaterdag 3 mei 2014 01:22 schreef oompaloompa het volgende:

[..]

is dat niet gewoon hoeveelheid engelse woorden / totale aantal woorden? Of mis ik nu iets?
Thanks, Ik ben er uit, was idd super simpel maar zat me weer blind te staren op te ingewikkelde oplossingen :P
I like you more than pizza, and I really like pizza.
pi_139521389
Mensen!
(Ik weet, 1st post, maar daar komt verandering in).

Ik ben bezig met m'n afstudeerscriptie en zit op dit moment helemaal vast met SPSS analyse.
Ik doe onderzoek naar relatie tussen irritatie binnen een reclame en naamsbekendheid.
Er zijn 2 vragenlijsten rondgegaan. De eerste om de irritatie te meten en de 2e om de naamsbekendheid te meten.

Dit was vooral met likert scale.
Het probleem is nu om de hypotheses te testen..

Er is gebruik gemaakt van 2 irritante reclames (vanish & zalando) en 2 niet-irritante reclames (kia en crystal clear)

Heb dus 4 onafhankelijke groepen (reclames) binnen een onafhankelijke variabele (Soort reclame)
Ik wil nu het volgende bewijzen:
Een test laat zien dat de irritante reclame meer irritatie opleverde dan de niet-irritante reclame.
Onafhankelijk: Soort Reclame. Afhankelijk: Ervaren irritatie.
Een reclame die irritatie bevat zorgt voor een hogere naamsbekendheid dan een niet-irritante reclame.
Onafhankelijk: Irritatie Afhankelijk: Naamsbekendheid (recall)

Er is mij gezegd dat ik gebruik moet maken van een ANOVA, maar dan kom ik bij het probleem, hoe ik een irritante reclame vergelijk met een niet-irritante reclame en hoe ik dan de onafhankelijke variabele invoer?

Als iemand weet hoe dit werkt, dank is groot!!
--
pi_139522229
Je kan het een beetje vergelijken met deze vraag, maar dan moet ik in plaats van 2 reclames, 4 reclames analyseren, 2 irritante en 2 niet -irritante.

Hoi!

Voor mijn masterscriptie ben ik bezig met het verwerken van de resultaten in SPSS (jippi, not).
Nu loop ik echt helemaal vast!

Ik heb een vragenlijst gehouden met likert-schaal vragen. Deze heb ik allemaal ingevoerd in SPSS, no problem. Nu heb ik de verschillende variabelen die samen één item vormen samengevoegd, eerst heb ik een Cronbach's Alpha uitgevoerd om te kijken of dit kon, no problem.

Mijn vragenlijst bestond uit 2 afbeeldingen. Nu wil ik de uitkomsten voor deze twee afbeeldingen met elkaar vergelijken. Hoe doe ik dit?

De data van de twee afbeeldingen staat wel in één SPSS bestand.

Ik dacht aan een ANOVA, maar welke gegevens moet ik dan waar invoeren?
Moet ik voor de afbeeldingen ook variabelen aanmaken? Hoe doe ik dan zonder dat SPSS er niet mee kan rekenen (had ik net namelijk).

Ik heb het idee dat ik een variabele mis ofzo, maar zou niet weten welke en hoe ik deze dan in moet voeren.

Wie kan mij helpen? Ik word er onderhand een beetje wanhopig van!
--
pi_139526597
quote:
0s.gif Op zaterdag 3 mei 2014 15:09 schreef Supertuintje het volgende:
Mensen!
(Ik weet, 1st post, maar daar komt verandering in).

Ik ben bezig met m'n afstudeerscriptie en zit op dit moment helemaal vast met SPSS analyse.
Ik doe onderzoek naar relatie tussen irritatie binnen een reclame en naamsbekendheid.
Er zijn 2 vragenlijsten rondgegaan. De eerste om de irritatie te meten en de 2e om de naamsbekendheid te meten.

Dit was vooral met likert scale.
Het probleem is nu om de hypotheses te testen..

Er is gebruik gemaakt van 2 irritante reclames (vanish & zalando) en 2 niet-irritante reclames (kia en crystal clear)

Heb dus 4 onafhankelijke groepen (reclames) binnen een onafhankelijke variabele (Soort reclame)
Ik wil nu het volgende bewijzen:
Een test laat zien dat de irritante reclame meer irritatie opleverde dan de niet-irritante reclame.
Onafhankelijk: Soort Reclame. Afhankelijk: Ervaren irritatie.
Een reclame die irritatie bevat zorgt voor een hogere naamsbekendheid dan een niet-irritante reclame.
Onafhankelijk: Irritatie Afhankelijk: Naamsbekendheid (recall)

Er is mij gezegd dat ik gebruik moet maken van een ANOVA, maar dan kom ik bij het probleem, hoe ik een irritante reclame vergelijk met een niet-irritante reclame en hoe ik dan de onafhankelijke variabele invoer?

Als iemand weet hoe dit werkt, dank is groot!!
Samengevat: Je wil eerst controleren of de irritante reclames inderdaad irritanter waren dan de niet-irritante reclames en daarna analyseren of deze een grotere naamsbekendheid creëren. Klopt die samenvatting?

Eerste stap is om te controleren of alle items op je vragenlijst hetzelfde meten (volgens je volgende post is dat zo). Daarna kun je totaalscores maken als je wil per reclame. Je kunt vervolgens óf de irritante reclames samenvoegen en de niet-irritante reclames toevoegen en een t-test uitvoeren. Of je kunt een ANOVA doen met 4 groepen (de reclames). Je afhankelijke variabele is dan irritatiefactor, je onafhankelijke variabele is dan de reclame.

Daarna kun je eenzelfde ANOVA (of t-test) doen met naamsbekendheid als afhankelijke variabele in plaats van de irritatiefactor.

Even uit interesse: Gaat het om een hbo of wo scriptie en welke studie doe je?
pi_139533927
WO, Business Economics.

Heb de variabelen samengevoegd en doormiddel van gepairde t-tests kom ik nu al erg ver ;)
Wanneer ik een ANOVA zou doen..

Hoe kan ik SPSS dan onafhankelijke variabele soort reclame invoeren...?

Alvast bedankt, en tnx voor je antwoord ;)
--
  zondag 4 mei 2014 @ 00:40:41 #60
95123 Operc
Nr. 40
pi_139540362
quote:
0s.gif Op zaterdag 3 mei 2014 21:29 schreef Supertuintje het volgende:
WO, Business Economics.

Heb de variabelen samengevoegd en doormiddel van gepairde t-tests kom ik nu al erg ver ;)
Wanneer ik een ANOVA zou doen..

Hoe kan ik SPSS dan onafhankelijke variabele soort reclame invoeren...?

Alvast bedankt, en tnx voor je antwoord ;)
Variabele aanmaken en die de waardes 1-4 geven waarbij je elke waarde een label geeft van een reclame. :)
pi_139543326
Ja, maar alle respondenten zien de 4 reclames hé, dan lukt het me niet om reclame 1 te koppelen aan irritatie 1. Daarom lijkt het me veel idealiter om gebruik te maken van de paired t test ;)
--
  zondag 4 mei 2014 @ 09:32:21 #62
95123 Operc
Nr. 40
pi_139543729
quote:
0s.gif Op zondag 4 mei 2014 08:13 schreef Supertuintje het volgende:
Ja, maar alle respondenten zien de 4 reclames hé, dan lukt het me niet om reclame 1 te koppelen aan irritatie 1. Daarom lijkt het me veel idealiter om gebruik te maken van de paired t test ;)
Hoezo niet? Reclame is gewoon een within-subjects-factor toch? Of heb je irritatie niet per reclame gemeten?

En je hebt een ANOVA nodig om alle 4 de condities tegelijk te analyseren, dat gaat niet met een t-toets.
pi_139543905
Ik heb de irritatie per reclame gemeten, toen mbv compute variable ervaren irritatie irritante reclame gemaakt en een met ervaren irritatie niet-irritante reclame.

Mbv t-toets dat irritante reclame meer irritatie oplevert dan een niet-irritante reclame.

Bewustzijn irritante reclames samengevoegd + bewustzijn niet-irritante reclames samengevoegd.
T-toets

Bewustzijn irritante reclames hoger dan niet-irritant.

Mij is verteld dat het ook op deze manier kon?

Zou je misschien kunnen uitleggen hoe ik dan reclame dan in SPSS kan invoeren ? :)
--
pi_139543942
En dan hoe jij in variable view het eruit zou laten zien?
Super dat je reageert trouwens ;)

Ik ga ervanuit dat ik het op deze manier met irritante reclames en niet irritante reclames en t nog op een juiste manier doe..
--
  zondag 4 mei 2014 @ 10:19:00 #65
95123 Operc
Nr. 40
pi_139544216
quote:
0s.gif Op zondag 4 mei 2014 09:50 schreef Supertuintje het volgende:
Ik heb de irritatie per reclame gemeten, toen mbv compute variable ervaren irritatie irritante reclame gemaakt en een met ervaren irritatie niet-irritante reclame.

Mbv t-toets dat irritante reclame meer irritatie oplevert dan een niet-irritante reclame.

Bewustzijn irritante reclames samengevoegd + bewustzijn niet-irritante reclames samengevoegd.
T-toets

Bewustzijn irritante reclames hoger dan niet-irritant.

Mij is verteld dat het ook op deze manier kon?

Zou je misschien kunnen uitleggen hoe ik dan reclame dan in SPSS kan invoeren ? :)
Zo kan het ook, alleen lijkt het wat onlogisch voor je vraag of de irritante reclames daadwerkelijk irritant zijn. Ik ken je data niet, maar stel de niet irritante reclames scoren 2 en 2 op de irritatieschaal. En de irritante reclames scoren 2 en 7. Dan is je gemiddelde niet-irritante reclame 2 en je gemiddelde irritante reclame 4,5, waardoor de irritante reclames irritanter lijken te zijn (kromme zin maar je snapt het vast.) Maar eigenlijk is er maar 1 reclame irritanter dan de andere 3. Dus voor het controleren of de reclames daadwerkelijk irritant/niet-irritant zijn, kun je beter 4 groepen overhouden. Omdat het een within-subject-factor is, kom je uit bij een repeated-measures-ANOVA. Als je de irritatiescores van de 4 reclames hebt kom je er wel. over die RM-ANOVA kun je vast genoeg vinden in je statistiek boeken/internet. :)
pi_139544308
Top, dankjewel! Ik ga er eens achteraan, ben tenminste al 1000 x verder door middel van t-test voor het feedback moment, dan zonder deze antwoorden., had geen flauw idee waar te beginnen.
--
pi_139546109
Ik moet een interactie tussen een gestandaardiseerde continue variabele en een categorische variabele interpreteren. De interactie is significant, maar de levels van de categorische variabele binnen de continue variabele (op zowel z=-1 als z=+1) verschillen niet. Het is een disordinale interactie (bij z=-1 omgekeerd patroon t.o.v. z=+1).

Hoe interpreteer ik deze interactie dan met behulp van toetsen? Als ik een plot maak, zie ik duidelijk dat de regressielijnen kruisen. De interactietoets is ook significant. Maar ik moet ook uitleggen welke "cellen" (ik noem het cellen, omdat we van de continue variabele een punt hebben gekozen) van elkaar verschillen. Hoe krijg ik de toetsen die dat laten zien?
pi_139550910
Vorig jaar heb ik mijn HBO afgerond en ben op dit moment bezig met een schakeljaar om volgend jaar te starten met de Master Business Administration. In dit schakeljaar moet je ook een klein onderzoek houden. Daarbij is het de bedoeling dat je SPSS gebruikt om de resultaten te interpreteren, door mijn HBO achtergrond heb ik daar helaas weinig ervaring in. Daarom heb ik een korte vraag:

Ik ben aan het onderzoeken of de afstand, gemeten in kilometers, invloed heeft op de resultaten van een alliantie. De volgende variabele heb ik:

Dependent: Performance (1. Objective not accomplished, 2. partially accomplished and 3, met) -> ordinaal
Independent: Geographical distance (1. Low distance, 2. Moderate distance, 3. High distance) -> nominaal

Daarnaast heb ik twee control variables; Subsidie en aantal partners in de alliantie -> beide zijn scale.

Ik heb een drietal hypotheses om te analysere of er een zogenaamde U-shape is:
1)een lage geografische afstand heeft een negatieve invloed op de performance;
2) een optimale geografische afstand heeft een positieve invloed op de performance;
3) een grote geografische afstand heeft een negatieve invloed op de performance.

Kan iemand mij helpen met een aanzet te geven welke test het best te gebruik is in SPSS? Graag via de makkelijkste weg.

Hartelijk dank!
  maandag 5 mei 2014 @ 14:57:00 #69
305837 christiman
christiman
pi_139584450
Ik heb voor mijn masteronderzoek (geneeskunde, EUR) een dataset in SPSS met behandelgegevens van patiënten. Per patiënt heb ik meerdere regels met behandelinformatie, waarbij alle 'baseline' informatie steeds hetzelfde is.
Kan ik de regels die bij één patiënt horen koppelen, zodat SPSS al die regels als één case ziet?
pi_139585637
Restructure cases into variables in de Restucture Data Wizard (Data > Restructure). Of via syntax
1CASESTOVARS
pi_139695541
Beste heren/dames,

Om te beginnen volg ik een opleiding die niets te maken heeft met Wiskunde (Bedrijfskundige Informatica). Ik ben bezig met mijn afstudeerscriptie. Hier behandel ik een probleemgroepinteractietabel. Ik dien aan te geven (op procentuele wijze) dat het oplossen van een x aantal problemen van de ene probleemgroep,tegelijkertijd een x-aantal problemen oplost van een andere probleemgroep.

Ik dien dit uit te rekenen met een berekening, en ik heb werkelijk geen idee hoe ik dit moet aanpakken. Ik zou jullie eeuwig dankbaar zijn als jullie mij hierbij kunnen helpen, omdat dit mijn laatste onderdeel is wat ik nog moet uitvogelen!

Ik zal het nog even aantonen met een voorbeeldje:

Er zijn 2 probleemgroepen:

Probleemgroep A:
Probleem 1
Probleem 2
Probleem 3

Probleemgroep B:
Probleem 4
Probleem 5
Probleem 6

Ik wil dus aangeven dat het onderlinge verband tussen probleemgroep A en B is, dat bijvoorbeeld het oplossen van probleem 2 tegelijkertijd probleem 5 en 6 van probleemgroep B oplost. Dit wil ik procentueel aantonen.
Hoe dien ik dit aan te geven met een berekening? En hoe heet deze berekening, is er een benoeming voor deze methode? Ik dien namelijk literair te onderbouwen hoe ik aan de berekening kom.. Ik heb even diep in mijn geheugen gegraven, in het kader van dit voorbeeldje ben ik op 1/3e x 2/3e gekomen, vraag me niet hoe ik daarop kom..

ik kan jullie alleen maar eeuwig dankbaar zijn. Ik hoop echt dat jullie mij zsm kunnen helpen!
pi_139868622
Dag,

Ik heb een vraag over welke analyse ik moet gebruiken bij SPSS.
Ikzelf kom er niet uit.

Ik wil kijken of er een verband bestaat tussen de leeftijd + ervaring en aan de andere kant de leerstijl van de verpleegkundige.
Een kort overzicht van mijn data:

Onafhankelijke variabelen:
- Leeftijd
- Ervaring in de zorg

Afhankelijke variabelen:
Voor elke respondent heb ik een score op elke vijf leerstijlen, dus vijf scores in totaal.
Bijv:
33 op leren door nieuwe zaken toe te voegen
80 op leren door de theorie
55 op leren door doen
30 op leren door reflectie
60 op leren door sociale interactie

Graag zou ik hier een regressieanalyse over willen doen, maar ik weet niet hoe dat moet met meerdere afhankelijke variabelen/waarden.
pi_139878775
Ik ben momenteel bezig met een onderzoek naar de link tussen crowdfunding en innovativiteit.
Mijn hypothese is dat projecten die innovatiever zijn succesvoller zullen zijn.

Ik heb de scores voor innovativiteit van 100 projecten; van 1=niet innovatief tot 5=zeer innovatief, dit is dus een ordinale schaal.
Het succes is ook op ordinale wijze gemeten met 1=niet succesvol tot 10=succesvol.
Daarnaast heb ik ook veel data die als controle variabelen gebruikt kunnen worden. Deze controle varriabelen zijn rente, looptijd lening en risico en zijn op scale niveau gemeten.

Ik wil met behulp van een regressie bekijken wat de invloed van innovativiteit op succes is, gecontroleerd voor de 3 controlevariabelen. (Het is eventueel ook een optie om van innovativiteit een dichotome score te maken van; 1=niet innovatief 2=innovatief)

Hoe voer ik deze ordinale lineaire regressie uit?

Ik heb al gekeken bij regression--ordinal--- en heb succes(dependent), innovativeness(factor) en risk, rente and looptijd(coovariaat) meegenomen.
Is dit de juiste keuze? En hoe kan dan zien wat de invloed van de controle variabelen is? En hoe kan ik het effect van innovativiteit op succes zien gecontroleerd voor de 3 controle variabelen?
pi_139900541
Beste Fokkers,
Ik werk aan mijn master thesis (marketing management) en zit met de volgende situatie en kom er niet helemaal uit. Wellicht heeft iemand een idee?

Ik heb 3 groepen die allen een verschillende combinatie van advertenties hebben gezien. Als dependent variable heb ik click-through intention (een 7 scale van hoe aannemelijk het is dat de respondent op de afsluitende/online advertentie geklikt heeft).

De groepen zien er als volgt uit:

Groep 1: Eerst radio advertentie zonder humor vervolgens een online advertentie
Groep 2: Eerst radio advertentie met humor vervolgens een online advertentie
Groep 3: eerst online advertentie en vervolgens weer een online advertentie.

Mijn hypotheses:
H1: Groep 1 heeft een hogere click-through intention dan Groep 3
H2: Groep 2 heeft een hogere click-through intention dan Groep 1.

Ik heb dus geen full factorial design omdat mijn moderator alleen van toepassing is op Groep 1 en Groep 2. Zelf zat ik te denken aan een Indepentent sample T test en dan gewoon groep 1 met groep 3 vergelijken en groep 2 met groep 1 vergelijken.

Mijn begeleider suggereert dat er een andere/betere test is om de analyse te doen. Wat zouden jullie doen?

Alvast hartelijk dank voor de moeite!
  dinsdag 13 mei 2014 @ 20:07:11 #75
219590 oompaloompa
doompadeedee
pi_139918053
quote:
0s.gif Op maandag 12 mei 2014 20:16 schreef Mynheer007 het volgende:
Ik ben momenteel bezig met een onderzoek naar de link tussen crowdfunding en innovativiteit.
Mijn hypothese is dat projecten die innovatiever zijn succesvoller zullen zijn.

Ik heb de scores voor innovativiteit van 100 projecten; van 1=niet innovatief tot 5=zeer innovatief, dit is dus een ordinale schaal.
Het succes is ook op ordinale wijze gemeten met 1=niet succesvol tot 10=succesvol.
Daarnaast heb ik ook veel data die als controle variabelen gebruikt kunnen worden. Deze controle varriabelen zijn rente, looptijd lening en risico en zijn op scale niveau gemeten.

Ik wil met behulp van een regressie bekijken wat de invloed van innovativiteit op succes is, gecontroleerd voor de 3 controlevariabelen. (Het is eventueel ook een optie om van innovativiteit een dichotome score te maken van; 1=niet innovatief 2=innovatief)

Hoe voer ik deze ordinale lineaire regressie uit?

Ik heb al gekeken bij regression--ordinal--- en heb succes(dependent), innovativeness(factor) en risk, rente and looptijd(coovariaat) meegenomen.
Is dit de juiste keuze? En hoe kan dan zien wat de invloed van de controle variabelen is? En hoe kan ik het effect van innovativiteit op succes zien gecontroleerd voor de 3 controle variabelen?
Kun je het niet gewoon als continue variabele gebruiken? Als je N hoog genoeg is en de data genoeg spreiding laat zien kun je volgens mij gewoon beiden als continue gebruiken en dat maakt het een heel stuk gemakkelijker.

quote:
0s.gif Op dinsdag 13 mei 2014 12:16 schreef hanssk het volgende:
Beste Fokkers,
Ik werk aan mijn master thesis (marketing management) en zit met de volgende situatie en kom er niet helemaal uit. Wellicht heeft iemand een idee?

Ik heb 3 groepen die allen een verschillende combinatie van advertenties hebben gezien. Als dependent variable heb ik click-through intention (een 7 scale van hoe aannemelijk het is dat de respondent op de afsluitende/online advertentie geklikt heeft).

De groepen zien er als volgt uit:

Groep 1: Eerst radio advertentie zonder humor vervolgens een online advertentie
Groep 2: Eerst radio advertentie met humor vervolgens een online advertentie
Groep 3: eerst online advertentie en vervolgens weer een online advertentie.

Mijn hypotheses:
H1: Groep 1 heeft een hogere click-through intention dan Groep 3
H2: Groep 2 heeft een hogere click-through intention dan Groep 1.

Ik heb dus geen full factorial design omdat mijn moderator alleen van toepassing is op Groep 1 en Groep 2. Zelf zat ik te denken aan een Indepentent sample T test en dan gewoon groep 1 met groep 3 vergelijken en groep 2 met groep 1 vergelijken.

Mijn begeleider suggereert dat er een andere/betere test is om de analyse te doen. Wat zouden jullie doen?

Alvast hartelijk dank voor de moeite!
Je spreekt over een moderator maar die zie ik niet genoemd worden. Als je twee losse t-toetsen gebruikt, gebruik je niet je volledige data. Het beste is (m.i.) om een anova te doen met 2 planned contrasten: groep 1 t.o.v. groep 3, en groep 2 tov groep 1.

Dat gezegd hebbende, de data zullen niet heel anders zijn als je mijn manier gebruikt.
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
abonnement Unibet Coolblue Bitvavo
Forum Opties
Forumhop:
Hop naar:
(afkorting, bv 'KLB')