Al bijna een week zonder dat er iemand een SPSS vraag heeft, FOK! gaat vooruit.quote:Op donderdag 10 april 2014 16:35 schreef oompaloompa het volgende:
Iemand heeft de vorige dicht laten gaan zonder een nieuwe te openen.
Netjes!quote:Op vrijdag 11 april 2014 12:26 schreef motorbloempje het volgende:
Nou, kreeg net mail en heb toch een (omgerekend) 9 ofzo voor een opdracht óver SPSS/Quants.
Jolijt, ik schijn het een beetje te begrijpen!
nicequote:Op vrijdag 11 april 2014 13:55 schreef motorbloempje het volgende:
Nee, kritisch/analytisch paper over een onderzoek dat gebruik maakt van quants/spss.
De laatste post was een vraag, maar als je niet de moeite neemt een nieuwe thread te openen neem ik niet de moeite hem te beantwoordenquote:Op vrijdag 11 april 2014 13:56 schreef Operc het volgende:
[..]
Al bijna een week zonder dat er iemand een SPSS vraag heeft, FOK! gaat vooruit.
Goed plan. Misschien iets als "Statistiek en SPSS topic" van maken? Aangezien er anders misschien mensen zijn die denken dat hun SPSS vraag er niet thuis hoort en er weer een wildgroei aan SPSS topics komt.quote:Op vrijdag 11 april 2014 15:01 schreef oompaloompa het volgende:
[..]
nice
Ik zat te denken, is het misschien nuttig om in plaats van de SPSS thread er de statistiekthread van te maken? Het gaat regelmatig over algemene statistiek vragen en soms ook over andere programmas als excel / R / etc.
Terecht.quote:De laatste post was een vraag, maar als je niet de moeite neemt een nieuwe thread te openen neem ik niet de moeite hem te beantwoorden
Als je een sample met waarnemingen x1, x2, ... , xn hebt, dan is x(1) de kleinste waarneming van je sample en x(n) de grootste.quote:
Zover was ik al ja! Maar bijvoorbeeld zo'n vraag:quote:Op zaterdag 12 april 2014 13:12 schreef wimjongil het volgende:
[..]
Als je een sample met waarnemingen x1, x2, ... , xn hebt, dan is x(1) de kleinste waarneming van je sample en x(n) de grootste.
Mocht je sample dus x1 = 4, x2 = 8, x3 = 2 zijn, dan heb je x(1) = 2, x(2) = 4, x(3) = 8.
Je hebt een kansdichtheid functie. En een functie moet altijd input en output hebben, al lijkt deze overbodig.quote:Op zaterdag 12 april 2014 16:27 schreef oompaloompa het volgende:
Stomme vraag, maar wat betekent die x in de notatie van de distributie? Ik heb alleen nog maar uniforme distributies gezien genoteerd als U(begin, einde).
Dit ligt ver buiten mijn kennisgebied, maar het lijkt me af te hangen van de vraag die je wilt beantwoorden.quote:Op dinsdag 22 april 2014 20:05 schreef vigier het volgende:
Als statistiek nitwit een vraag.
Stel... ik heb 3.349 tekstuele beoordelingen, ik wil gaan bepalen wat voor soort beoordelingen het meest voorkomen en daar actie op ondernemen. Omdat het doorlezen van 3.500 blokken tekst belachelijk veel werk is, ga ik met een steekproef werken. Een online hulpmiddel leert mij het volgende: met een 4% foutmarge en 95% betrouwbaarheid heb ik een steekproef nodig van 510.
Vervolgens random 510 beoordelingen genomen, allemaal gelezen en netjes gecategoriseerd. 236 van de beoordelingen bleken echter onvoldoende ingevuld/verkeerd gelabeld/andere vorm van onbruikbaar. Ik ga dus mijn plan baseren op 510-236 = 274 beoordelingen.
Dat lijkt ineens erg weinig. Dus vraag ik me af: zijn die 274 dan wel representatief?
Ene mannetje op mijn schouder zegt: nee, te weinig. Andere mannetje op andere schouder zegt: ja, maar als blijkbaar uit jouw steekproef 236 van de 510 onbruikbaar zijn en je hebt random getrokken, dan betekent dat ongeveer 3.349 / 510 * 236 = 1.550 van álle beoordelingen onbruikbaar zijn. Dus die 274 zijn verder representatief voor de hele populatie....
Heeft dat tweede mannetje gelijk? Mijn gut feeling zegt van wel, maar ik kan het buiten bovenstaande benadering niet onderbouwen.
Thnx voor je reactie. Het vervelende is dat ik vooraf niet weet welke 1.550 het zijn. Daarvoor moet ik ze allemaal doorlezen. En dat is nu juist de reden dat ik met een steekproef wil werken. Om je een idee te geven, de 3.349 beoordelen samen bevatten ruim 290.000 woorden, dus ongeveer 580 pagina's.quote:Op woensdag 23 april 2014 17:55 schreef oompaloompa het volgende:
[..]
Dit ligt ver buiten mijn kennisgebied, maar het lijkt me af te hangen van de vraag die je wilt beantwoorden.
Als je conclusies wilt maken puur op basis van bruikbare beoordelingen uit de populatie zou ik je berekening in het begin nogmaals uitvoeren maar nu met een basissample van 3349-1550 = 1799 en dan die uitkomst als aantal bruikbare beoordelingen nemen.
Dat valt me stiekem nog mee eigenlijk.quote:Op woensdag 23 april 2014 23:14 schreef vigier het volgende:
[..]
Thnx voor je reactie. Het vervelende is dat ik vooraf niet weet welke 1.550 het zijn. Daarvoor moet ik ze allemaal doorlezen. En dat is nu juist de reden dat ik met een steekproef wil werken. Om je een idee te geven, de 3.349 beoordelen samen bevatten ruim 290.000 woorden, dus ongeveer 580 pagina's.
Ik ben ongeveer anderhalve minuut gemiddeld met een beoordeling bezig om deze te categoriseren. Dat is 84 uur in totaal. Zoveel tijd heb ik bij lange na nietquote:Op woensdag 23 april 2014 23:26 schreef Operc het volgende:
[..]
Dat valt me stiekem nog mee eigenlijk.Geen mogelijkheid om ze allemaal even door te nemen? Nog geen 100 woorden per beoordeling. (Ik weet niet hoelang het duurt om 1 beoordeling door te spitten op de voor jou belangrijke data.)
Nog maar 76 uur aangezien je er al ruim 500 hebt gedaan.quote:Op woensdag 23 april 2014 23:28 schreef vigier het volgende:
[..]
Ik ben ongeveer anderhalve minuut gemiddeld met een beoordeling bezig om deze te categoriseren. Dat is 84 uur in totaal. Zoveel tijd heb ik bij lange na niet![]()
Het is voor een scriptie inderdaad. Ze zijn akkoord met een steekproef, maar dan wel netjes uitgevoerdquote:Op woensdag 23 april 2014 23:31 schreef Operc het volgende:
[..]
Nog maar 76 uur aangezien je er al ruim 500 hebt gedaan.
Ik snap dat het veel is ja. Is het voor een scriptie? Stellen ze eisen aan het resultaat? Het mooiste is om alles mee te nemen, aangezien het relevante data is en je blijkbaar de dataset toch al ter beschikking hebt. Maar het hangt een beetje af van het doel van je onderzoek hoe belangrijk dit precies is.
1 2 | compute percentage=(var_engels)/(var_totaal)*100. execute. |
Bedankt! Dit was m:)quote:Op donderdag 24 april 2014 10:44 schreef dotKoen het volgende:
[ code verwijderd ]
Of, als je niet via syntax werkt (niet echt aan te raden): Transform -> Compute variable
Target variable: percentage
Numeric expression: (var_engels)/(var_totaal)*100
Dat ligt volledig aan wat voor statistische toets je wilt doen.quote:Op donderdag 24 april 2014 18:32 schreef Amsterdam227 het volgende:
En dan heb ik nog een (hopelijk laatste) vraagje. Ik moet de samenhang bepalen:
Hangt het aantal Engelse woorden samen met het gebruikte schrift
(westers schrift of niet-westers schrift)?
Aantal EN woorden is een ratio variabele en gebruikte schrift is een nominale variabele.
Moet ik die ratio variabele eerst hercoderen?
Je vragen zijn wel heel simpel, je kunt deze antwoorden makkelijk ergens vinden. Niet dat ik je niet wil helpen natuurlijkquote:Op donderdag 24 april 2014 18:44 schreef Amsterdam227 het volgende:
Bedankt voor je hulp. Dat maakt niet heel veel uit voor mij, wil graag de samenhang kunnen vinden. Ik wil graag weten welke toets ik moet doen, omdat ik een verkeerde output krijg als ik nu crosstabs doe met deze twee variabelen. (Dat lijkt me ook logisch, maar ik kom er verder niet meer uit..)
Geruik Compute Variable om een totaalscore per video te maken. Daarna kun je bijvoorbeeld via Descriptives het gemiddelde daarvan berekenen. De video met de hoogste gemiddelde totaalscore is "de beste."quote:Op maandag 28 april 2014 10:34 schreef TWP het volgende:
Ik heb ook een vraag, want ik loop nogal vast bij een bepaalde analyse.
Voor m'n onderzoek heb ik een pre-test uitgevoerd waarbij respondenten hun oordeel moesten geven over gesprekstechnieken die voorkomen in vijf verschillende video's. In de dataset heb ik nu dus voor elk van de vijf video's beoordelingen van negen verschillende gesprekstechnieken. Bijvoorbeeld: V1_T1 (waarde/beoordeling voor video 1, techniek 1), V1_T2 (waarde/beoordeling voor video 1, techniek 2) etc.
Nu wil ik graag een analyse uitvoeren waarbij ik de video kan selecteren die over het algemeen het hoogst scoort op de verschillende categorieën. Dus: Welke video scoort overall het hoogst?
Wat is hiervoor de beste methode? Alvast ontzettend bedankt!
quote:Op maandag 28 april 2014 11:00 schreef dotKoen het volgende:
Als ik het goed begrijp moet je dus eerst een variabele V1_totaal maken? Hoe je die moet maken is afhankelijk van wat voor score het is. Zijn al die technieken op dezelfde manier gescoord en even belangrijk? Dan kun je ze optellen en delen (recode into different variable), zou ik zeggen.
Bedankt voor de snelle reactie.quote:Op maandag 28 april 2014 11:03 schreef Operc het volgende:
[..]
Geruik Compute Variable om een totaalscore per video te maken. Daarna kun je bijvoorbeeld via Descriptives het gemiddelde daarvan berekenen. De video met de hoogste gemiddelde totaalscore is "de beste."
Als je alle videos op dezelfde manier hebt laten beoordelen wel, dus ook in dezelfde richting (dat 1 laag is en 5 hoog etc.)quote:Op maandag 28 april 2014 11:05 schreef TWP het volgende:
[..]
[..]
Bedankt voor de snelle reactie.
Ik heb inderdaad een gemiddelde score berekend van de video's. Alle categorieën waren inderdaad even belangrijk en geschaald van 1 t/m 5.
Is het werkelijk zo simpel? Ik zat echt veel te moeilijk te denken danGa het meteen even uitproberen.
Dat ligt er aan waarom je in de eerste plaats die toets uitgevoerd hebt. Als je denkt dat er een relatie bestaat tussen leeftijd en je afhankelijke variabele kun je er het beste voor controleren. Als het gewoon een toets was om te kijken of randomisatie een beetje fatsoenlijk was zou ik het gewoon negeren.quote:Op vrijdag 2 mei 2014 11:29 schreef Amsterdam227 het volgende:
Ik heb een vraag over de ANOVA icm Homogeneity of variance test.
Ik wil nagaan of de gemiddelde leeftijd van de deelnemers in drie condities niet significant van elkaar verschilt (dit is een controlecheck voorafgaand aan de resultaten van het hoofdonderzoek waarin ik effecten meet).
De verschillen blijken niet significant (F (2, 101) = 1.328; p = .270.)
De Levene geeft wel een significante waarde, namelijk .009
De verhouding van de grootste en kleinste standaarddeviatie is groter dan 2: (SD = 10.485 en SD = 13.660)
Wat kan ik hieruit concluderen? Is er nog een post-hoc test die ik kan doen, of is het geen groot probleem dat de variantie niet in elke groep gelijk is?
Alvast bedankt!
Bedankt!quote:Op vrijdag 2 mei 2014 14:57 schreef oompaloompa het volgende:
[..]
Dat ligt er aan waarom je in de eerste plaats die toets uitgevoerd hebt. Als je denkt dat er een relatie bestaat tussen leeftijd en je afhankelijke variabele kun je er het beste voor controleren. Als het gewoon een toets was om te kijken of randomisatie een beetje fatsoenlijk was zou ik het gewoon negeren.
Bedankt voor je reactie! Ik begrijp niet helemaal wat je bedoelt met 'split file op schrift', sorry. Ik had al wel een variabele 'Percentage Engels in teksten'.quote:Op vrijdag 2 mei 2014 17:54 schreef babybanaan het volgende:
Je kunt een nieuwe variabele maken, die het percentage engelse t.o.v. Totaal aantal woorden aangeeft (via compute). Vervolgens kun je een split file doen op schrift en dan via descriptives gemiddelden opvragen. Als je de gemiddelden met elkaar moet vergelijken, dan kun je een anova uitvoeren (maar niet met spkit file!).
Ik heb de anova uitgevoerd en de variabelen 'percentage Engels' en 'gebruikt schrift' gebruikt.quote:Op vrijdag 2 mei 2014 18:04 schreef Amsterdam227 het volgende:
[..]
Bedankt voor je reactie! Ik begrijp niet helemaal wat je bedoelt met 'split file op schrift', sorry. Ik had al wel een variabele 'Percentage Engels in teksten'.
Ik heb nu twee gemiddelden gevonden: De teksten waarin zowel westers als niet-westers schrift voorkwam bleken gemiddeld 22.35 Engelse woorden te bevatten (SD = 14.529). Het gemiddeld totaal aantal woorden in deze teksten was 77.61 (SD = 44.095).
Maar welke variabelen moet ik nu voor de anova gebruiken? Want de gemiddelde waarden zijn geen aparte variabelen.
Ik hoop dat ik niet te vaag ben. Alvast bedankt.
is dat niet gewoon hoeveelheid engelse woorden / totale aantal woorden? Of mis ik nu iets?quote:Op vrijdag 2 mei 2014 17:41 schreef Amsterdam227 het volgende:
Ik zit weer vast met een analyse in SPSS
Ik heb een aantal teksten geanalyseerd op het type schrift en het aandeel van het Engels.
Ik heb drie variabelen:
- totaal aantal woorden in de tekst (ratio)
- totaal aantal Engelse woorden in de tekst (ratio)
- Of de tekst in westers schrift of een mix van westers en niet-westers schrift is opgesteld (nominaal)
Ik moet berekenen hoeveel Engels woorden er gemiddeld voorkomen in de tekst met de mix van westers en niet-westers schrift (dit heb ik gedaan) en hoeveel % van de totale tekst deze Engelse woorden uitmaken. << die laatste kom ik niet uit...
Ik moet volgens mij alle 3 de variabelen gebruiken, maar kom er niet uit hoe ik nou het juiste percentage krijg..
Kan iemand mij helpen?
Thanks, Ik ben er uit, was idd super simpel maar zat me weer blind te staren op te ingewikkelde oplossingenquote:Op zaterdag 3 mei 2014 01:22 schreef oompaloompa het volgende:
[..]
is dat niet gewoon hoeveelheid engelse woorden / totale aantal woorden? Of mis ik nu iets?
Samengevat: Je wil eerst controleren of de irritante reclames inderdaad irritanter waren dan de niet-irritante reclames en daarna analyseren of deze een grotere naamsbekendheid creëren. Klopt die samenvatting?quote:Op zaterdag 3 mei 2014 15:09 schreef Supertuintje het volgende:
Mensen!
(Ik weet, 1st post, maar daar komt verandering in).
Ik ben bezig met m'n afstudeerscriptie en zit op dit moment helemaal vast met SPSS analyse.
Ik doe onderzoek naar relatie tussen irritatie binnen een reclame en naamsbekendheid.
Er zijn 2 vragenlijsten rondgegaan. De eerste om de irritatie te meten en de 2e om de naamsbekendheid te meten.
Dit was vooral met likert scale.
Het probleem is nu om de hypotheses te testen..
Er is gebruik gemaakt van 2 irritante reclames (vanish & zalando) en 2 niet-irritante reclames (kia en crystal clear)
Heb dus 4 onafhankelijke groepen (reclames) binnen een onafhankelijke variabele (Soort reclame)
Ik wil nu het volgende bewijzen:
Een test laat zien dat de irritante reclame meer irritatie opleverde dan de niet-irritante reclame.
Onafhankelijk: Soort Reclame. Afhankelijk: Ervaren irritatie.
Een reclame die irritatie bevat zorgt voor een hogere naamsbekendheid dan een niet-irritante reclame.
Onafhankelijk: Irritatie Afhankelijk: Naamsbekendheid (recall)
Er is mij gezegd dat ik gebruik moet maken van een ANOVA, maar dan kom ik bij het probleem, hoe ik een irritante reclame vergelijk met een niet-irritante reclame en hoe ik dan de onafhankelijke variabele invoer?
Als iemand weet hoe dit werkt, dank is groot!!
Variabele aanmaken en die de waardes 1-4 geven waarbij je elke waarde een label geeft van een reclame.quote:Op zaterdag 3 mei 2014 21:29 schreef Supertuintje het volgende:
WO, Business Economics.
Heb de variabelen samengevoegd en doormiddel van gepairde t-tests kom ik nu al erg ver
Wanneer ik een ANOVA zou doen..
Hoe kan ik SPSS dan onafhankelijke variabele soort reclame invoeren...?
Alvast bedankt, en tnx voor je antwoord
Hoezo niet? Reclame is gewoon een within-subjects-factor toch? Of heb je irritatie niet per reclame gemeten?quote:Op zondag 4 mei 2014 08:13 schreef Supertuintje het volgende:
Ja, maar alle respondenten zien de 4 reclames hé, dan lukt het me niet om reclame 1 te koppelen aan irritatie 1. Daarom lijkt het me veel idealiter om gebruik te maken van de paired t test
Zo kan het ook, alleen lijkt het wat onlogisch voor je vraag of de irritante reclames daadwerkelijk irritant zijn. Ik ken je data niet, maar stel de niet irritante reclames scoren 2 en 2 op de irritatieschaal. En de irritante reclames scoren 2 en 7. Dan is je gemiddelde niet-irritante reclame 2 en je gemiddelde irritante reclame 4,5, waardoor de irritante reclames irritanter lijken te zijn (kromme zin maar je snapt het vast.) Maar eigenlijk is er maar 1 reclame irritanter dan de andere 3. Dus voor het controleren of de reclames daadwerkelijk irritant/niet-irritant zijn, kun je beter 4 groepen overhouden. Omdat het een within-subject-factor is, kom je uit bij een repeated-measures-ANOVA. Als je de irritatiescores van de 4 reclames hebt kom je er wel. over die RM-ANOVA kun je vast genoeg vinden in je statistiek boeken/internet.quote:Op zondag 4 mei 2014 09:50 schreef Supertuintje het volgende:
Ik heb de irritatie per reclame gemeten, toen mbv compute variable ervaren irritatie irritante reclame gemaakt en een met ervaren irritatie niet-irritante reclame.
Mbv t-toets dat irritante reclame meer irritatie oplevert dan een niet-irritante reclame.
Bewustzijn irritante reclames samengevoegd + bewustzijn niet-irritante reclames samengevoegd.
T-toets
Bewustzijn irritante reclames hoger dan niet-irritant.
Mij is verteld dat het ook op deze manier kon?
Zou je misschien kunnen uitleggen hoe ik dan reclame dan in SPSS kan invoeren ?
1 | CASESTOVARS |
Kun je het niet gewoon als continue variabele gebruiken? Als je N hoog genoeg is en de data genoeg spreiding laat zien kun je volgens mij gewoon beiden als continue gebruiken en dat maakt het een heel stuk gemakkelijker.quote:Op maandag 12 mei 2014 20:16 schreef Mynheer007 het volgende:
Ik ben momenteel bezig met een onderzoek naar de link tussen crowdfunding en innovativiteit.
Mijn hypothese is dat projecten die innovatiever zijn succesvoller zullen zijn.
Ik heb de scores voor innovativiteit van 100 projecten; van 1=niet innovatief tot 5=zeer innovatief, dit is dus een ordinale schaal.
Het succes is ook op ordinale wijze gemeten met 1=niet succesvol tot 10=succesvol.
Daarnaast heb ik ook veel data die als controle variabelen gebruikt kunnen worden. Deze controle varriabelen zijn rente, looptijd lening en risico en zijn op scale niveau gemeten.
Ik wil met behulp van een regressie bekijken wat de invloed van innovativiteit op succes is, gecontroleerd voor de 3 controlevariabelen. (Het is eventueel ook een optie om van innovativiteit een dichotome score te maken van; 1=niet innovatief 2=innovatief)
Hoe voer ik deze ordinale lineaire regressie uit?
Ik heb al gekeken bij regression--ordinal--- en heb succes(dependent), innovativeness(factor) en risk, rente and looptijd(coovariaat) meegenomen.
Is dit de juiste keuze? En hoe kan dan zien wat de invloed van de controle variabelen is? En hoe kan ik het effect van innovativiteit op succes zien gecontroleerd voor de 3 controle variabelen?
Je spreekt over een moderator maar die zie ik niet genoemd worden. Als je twee losse t-toetsen gebruikt, gebruik je niet je volledige data. Het beste is (m.i.) om een anova te doen met 2 planned contrasten: groep 1 t.o.v. groep 3, en groep 2 tov groep 1.quote:Op dinsdag 13 mei 2014 12:16 schreef hanssk het volgende:
Beste Fokkers,
Ik werk aan mijn master thesis (marketing management) en zit met de volgende situatie en kom er niet helemaal uit. Wellicht heeft iemand een idee?
Ik heb 3 groepen die allen een verschillende combinatie van advertenties hebben gezien. Als dependent variable heb ik click-through intention (een 7 scale van hoe aannemelijk het is dat de respondent op de afsluitende/online advertentie geklikt heeft).
De groepen zien er als volgt uit:
Groep 1: Eerst radio advertentie zonder humor vervolgens een online advertentie
Groep 2: Eerst radio advertentie met humor vervolgens een online advertentie
Groep 3: eerst online advertentie en vervolgens weer een online advertentie.
Mijn hypotheses:
H1: Groep 1 heeft een hogere click-through intention dan Groep 3
H2: Groep 2 heeft een hogere click-through intention dan Groep 1.
Ik heb dus geen full factorial design omdat mijn moderator alleen van toepassing is op Groep 1 en Groep 2. Zelf zat ik te denken aan een Indepentent sample T test en dan gewoon groep 1 met groep 3 vergelijken en groep 2 met groep 1 vergelijken.
Mijn begeleider suggereert dat er een andere/betere test is om de analyse te doen. Wat zouden jullie doen?
Alvast hartelijk dank voor de moeite!
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |