abonnement Unibet Coolblue
pi_84128052
Hoi.
Ik heb een vraag over het gebruiken van de if-functie.
Bij een bepaalde vraag in mijn enquete moeten respondenten aangeven hoe ze iets vinden door middel van het aankruisen van een rondje. Links staat een positief woord, rechts het negatieve.
plezierig O O O O O vervelend
Als ze een van de twee linkse rondjes invullen, zijn ze dus positief. Het middelste rondje is neutraal en de twee rechtse rondjes zijn negatief.

Ik heb 7 van dit soort vragen die hetzelfde meten (namelijk leesplezier). De antwoorden op deze zeven vragen heb ik samengevoegd in één variabele (namelijk door ze allemaal bij elkaar op te tellen en dan te delen door 7).
Nu wil ik eigenlijk die neutrale mensen er uit halen (want héél veel mensen hebben gewoon het derde rondje aangekruist, maar dan weet ik dus nog niets). Ik heb eerst met de if-functie alle mensen die op één van de 7 vragen neutraal hadden geantwoord eruit gehaald, maar dan bleven er 14 respondenten van de 200 over.
Daarom wil ik nu alleen de respondenten eruit halen die op minimaal 3 van de 7 vragen neutraal (dus rondje 3) hebben geantwoord.
Ik weet dat het moet kunnen, want ik heb het ooit gehad in mijn SPSS les, maar ik kan het nergens meer vinden! Ik kan me iets herinneren van .2mean of mean.2 en dan if ... maar weet niet meer hoe het precies zit.

Heeft iemand enig idee hoe ik de voorwaarde kan geven dat ik alleen de respondenten eruit haal die op minimaal 3 vragen neutraal (dus optie 3) hebben geantwoord?

Ik hoop dat het zo een beetje duidelijk omschreven is haha, alvast bedankt
pi_84128259
Het wordt dan een soort stappenplan.
Eerst:
IF V1 = 3 nVar1 = 1.
IF V2 = 3 nVar2 = 1.
IF V3 = 3 nVar3 = 1.
IF V4 = 3 nVar4 = 1.
IF V5 = 3 nVar5 = 1.
IF V6 = 3 nVar6 = 1.
IF V7 = 3 nVar7 = 1.

Dan tel je de nVars bij elkaar op en vervolgens kan je filteren.
Aldus.
pi_84132234
Top! Dankjewel, is me nu gelukt!
Eerst lukte het optellen niet, omdat alles wat niet 1 was als missing werd gerekend, dus nu heb ik het zo gedaan:
if b04a <> 3 nVar1 = 1 .
if b04b <> 3 nVar2 = 1 .
enz.
en daarna heb ik gedaan
if b04a = 3 nVar1 =0 .
if b04b = 3 nVar2 =0 .
enz.

Nu lukte het optellen wel, want nu stond er bij de vragen die waren ingevuld met een 3 gewoon een 0 ipv een . dat ie missing was

Super bedankt! Hopelijk zijn nu mn resultaten wel significant haha.
pi_84133170
En de volgende keer gewoon een 4-puntschaal gebruiken.
Aldus.
pi_84301876
Ik heb ook een SPSS vraag, geen idee of ik mijn gegevens op de juiste wijze analyseer.

Heb een enquête gehouden met vragen op een 5-punts likert scale.
Een bepaald aantal vragen meten een positieve ervaring en een bepaald aantal vragen meet een negatieve ervaring. Deze ervaringen wil ik samen vergelijken. Hiervoor kan ik het beste Cronbachs Alpha gebruiken maar moet ik de negatieve ervaringen dan een - poling toekennen in SPSS?

Wanneer Cronbachs Alpha voldoende is (hoger dan 0.6) kan er met compute een nieuw variabele gemaakt worden denk ik. (MEAN(Variabele1,Variabele2,Variabele3))

En wat kan ik dan doen met die nieuwe variabele? Anova?

Alvast bedankt.
  woensdag 21 juli 2010 @ 20:27:42 #106
302800 Frith
fictief en almachtig
pi_84327810
quote:
Op woensdag 21 juli 2010 03:17 schreef Wrigkey het volgende:
Ik heb ook een SPSS vraag, geen idee of ik mijn gegevens op de juiste wijze analyseer.

Heb een enquête gehouden met vragen op een 5-punts likert scale.
Een bepaald aantal vragen meten een positieve ervaring en een bepaald aantal vragen meet een negatieve ervaring. Deze ervaringen wil ik samen vergelijken. Hiervoor kan ik het beste Cronbachs Alpha gebruiken maar moet ik de negatieve ervaringen dan een - poling toekennen in SPSS?

Wanneer Cronbachs Alpha voldoende is (hoger dan 0.6) kan er met compute een nieuw variabele gemaakt worden denk ik. (MEAN(Variabele1,Variabele2,Variabele3))

En wat kan ik dan doen met die nieuwe variabele? Anova?

Alvast bedankt.
De nieuwe variabele (de schaal) moet altijd worden samengesteld uit gelijk gedefinieerde items.
Immers: x1 + x2 + x3 ... +Xn / n als gemiddelde en zo verder. Indien een item negatief gedefinieerd zou blijven (of positief als je een negatieve schaal wilt maken), dan klopt je schaal niet.

Je moet die negatieve items dus eerst hercoderen (ompolen dus), daarna pas een somschaal van maken (indien dat hier werkelijk toepasselijk is voor je analyse).


Je wilt overigens niet de alpha hebben, maar de factorlading. Een factoranalyse van items waarvan jij weet dat ze allen hetzelfde concept meten zal vaak meteen een lage of negatieve factorlading tonen in de componenten analyse.
Al moet ik wel bij zeggen dat de cronbach alpha dit gebrek aan samenhang van een item met de schaal ook zal tonen, maar dat hoeft niet. (betrouwbaarheid is niet validiteit of omgekeerd)


De alpha is pas echt nuttig nadat je de items hebt hercodeerd, aangezien die over de gehele schaal heen de betrouwbaarheid meet. Hou er dan ook rekening mee dat de cronbach alpha zich makkelijk laat manipuleren tot hogere waarden bij meer items, zelfs als die items niet in de schaal thuishoren (gekenmerkt door lage factorladingen in factoranalyse of door een kritische onderzoeker die de stelling als niet valide herkent).


Je volgende vraag (analyse van een model) is geheel afhankelijk van het model, je theorie en data die je hebt gebruikt. En dit model heb je niet gegeven.
pi_84354418
Hallo,

ik probeer met mijn scriptie werkprestatie te voorspellen dmv persoonlijkheid.
Daarbij heb ik onder andere als criterium "target gehaald ja/nee"
Stel, ik heb 5 persoonlijkheidstrekken, en ik wil kijken of en hoeveel deze trekken dat criterium voorspellen, hoe moet ik dat dan doen?

Ik zit dus met het ja/nee aspect... want als ik een mra doe, dan komt er troep uit, aangezien ik alleen een 0(nee) en 1 (ja) heb..
pi_84355013
quote:
Op donderdag 22 juli 2010 13:50 schreef L.J.V. het volgende:
Hallo,

ik probeer met mijn scriptie werkprestatie te voorspellen dmv persoonlijkheid.
Daarbij heb ik onder andere als criterium "target gehaald ja/nee"
Stel, ik heb 5 persoonlijkheidstrekken, en ik wil kijken of en hoeveel deze trekken dat criterium voorspellen, hoe moet ik dat dan doen?

Ik zit dus met het ja/nee aspect... want als ik een mra doe, dan komt er troep uit, aangezien ik alleen een 0(nee) en 1 (ja) heb..
binaire logistische regressie
Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
pi_84356419
quote:
Op donderdag 22 juli 2010 14:05 schreef oompaloompa het volgende:

[..]

binaire logistische regressie
Dankje!

Maar als ik bij regression kijk kan ik kiezen uit

  • Linear
  • Curve estimation
  • partial least squares
  • ordinal

    Heb ik een verkeerde versie spss ofzo (17.0)? Omdat logistic er niet bij staat.. of zie ik iets over het hoofd.
  • pi_84356549
    quote:
    Op donderdag 22 juli 2010 14:39 schreef L.J.V. het volgende:

    [..]

    Dankje!

    Maar als ik bij regression kijk kan ik kiezen uit

  • Linear
  • Curve estimation
  • partial least squares
  • ordinal

    Heb ik een verkeerde versie spss ofzo (17.0)? Omdat logistic er niet bij staat.. of zie ik iets over het hoofd.
  • ik heb hier geen spss maar er zou binary logistic tussen moeten staan?
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
    pi_84356728
    quote:
    Op donderdag 22 juli 2010 14:43 schreef oompaloompa het volgende:

    [..]

    ik heb hier geen spss maar er zou binary logistic tussen moeten staan?
    Het staat er niet tussen
    Hopelijk ligt dat dan aan mijn versie spss en hebben ze het op de universiteit wel.
    dankjewel voor je hulp!
    pi_84358720
    quote:
    Op donderdag 22 juli 2010 14:47 schreef L.J.V. het volgende:

    [..]

    Het staat er niet tussen
    Hopelijk ligt dat dan aan mijn versie spss en hebben ze het op de universiteit wel.
    dankjewel voor je hulp!
    dat is echt heel erg vreemd. Vooral omdat ik zeker weet dat 14 en of 17 of 18 (weet zo uit mn hoofd niet welke op de uni staat) het wel hebben. Misschien even zoeken in de help-functie?

    Tis echt een van de meest standaard analyses, ik weet bijna zeker dat het ergens verstopt moet staan.
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
    pi_84359322
    quote:
    Op donderdag 22 juli 2010 15:39 schreef oompaloompa het volgende:

    [..]

    dat is echt heel erg vreemd. Vooral omdat ik zeker weet dat 14 en of 17 of 18 (weet zo uit mn hoofd niet welke op de uni staat) het wel hebben. Misschien even zoeken in de help-functie?

    Tis echt een van de meest standaard analyses, ik weet bijna zeker dat het ergens verstopt moet staan.

    Nog vreemder is dat ik logistic regression wel kan vinden in het Help gedeelte, en daar word ook gezegd dat het onder analyze>regression staat. Maar dat is dus niet zo.
    pi_84384139
    Dames en Heren, ik heb de volgende vraag met betrekking tot SPSS:

    Hoe voer je een onderzoek uit naar stationariteit met SPSS?

    Hartstikke bedankt!
      vrijdag 23 juli 2010 @ 02:35:16 #115
    302800 Frith
    fictief en almachtig
    pi_84384708
    quote:
    Op donderdag 22 juli 2010 15:54 schreef L.J.V. het volgende:

    [..]

    Nog vreemder is dat ik logistic regression wel kan vinden in het Help gedeelte, en daar word ook gezegd dat het onder analyze>regression staat. Maar dat is dus niet zo.
    dan moet je ook niet zomaar wat downloaden van het internet. Ik ken dit geintje van anderen die hetzelfde probleem hadden.

    Het is echter onzinnig, aangezien de volumelicensie via de uni (of hbo) iets van 15 euro is en vervolgens jaren geldig, dus je hebt er niets aan om het te downloaden.


    Overigens is je model letterlijk een voorbeeldvraag van het hoofdstuk over logistische regressie in 'learning statistics with SPSS' van Andy Field. De antwoorden daarvan (en uitleg) zijn zelfs te downloaden op de bijhorende site.
      vrijdag 23 juli 2010 @ 15:53:31 #116
    134009 Killaht
    Words of Wisdom
    pi_84401604
    tvp
    "Strange times are these in which we live
    when old and young are taught in falsehoods school.
    And the one man that dares to tell the truth is called at once a lunatic and fool"
      vrijdag 23 juli 2010 @ 15:56:49 #117
    219590 oompaloompa
    doompadeedee
    pi_84401724
    quote:
    Op vrijdag 23 juli 2010 02:35 schreef Frith het volgende:

    [..]

    dan moet je ook niet zomaar wat downloaden van het internet. Ik ken dit geintje van anderen die hetzelfde probleem hadden.

    Het is echter onzinnig, aangezien de volumelicensie via de uni (of hbo) iets van 15 euro is en vervolgens jaren geldig, dus je hebt er niets aan om het te downloaden.


    Overigens is je model letterlijk een voorbeeldvraag van het hoofdstuk over logistische regressie in 'learning statistics with SPSS' van Andy Field. De antwoorden daarvan (en uitleg) zijn zelfs te downloaden op de bijhorende site.
    16.50 incl. verzending
    nmlk besteld toen ik door die post doorkreeg dat het verlopen was.
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
    pi_84403550
    Het probleem is als volgt: Heb 6 soorten campagnes als onafhankelijke variabelen en consumptie als afhankelijke. De 6 campagnes worden met ieder 5 vragen gemeten (5-punts Likert). Heb door wat rotte appels te verwijderen mooie Cronbach's Alphas verkregen. Nu ga ik iedere campagne aan consumptie linken met een regressie analyse, dat moet lukken hoop ik. Maar allereerst wil ik gewoon het verschil tussen de campagnes meten. Mijn begeleider had het over een t-test of ANOVA. Maar bij een t-test krijg je gewoon de gemiddelden, standaardafwijkingen, vrijheidsgraden en de p-waarde. Ik bedoelde eigenlijk meer van welke vaker voorkomt. Uiteraard weten jullie niet wat mijn begeleider bedoelt, maar vanuit een kennersoogpunt, ben ik nou goed bezig of heb ik de verkeerde analyse te pakken?
      vrijdag 23 juli 2010 @ 16:51:32 #119
    219590 oompaloompa
    doompadeedee
    pi_84403914
    quote:
    Op vrijdag 23 juli 2010 16:41 schreef aarstulp het volgende:
    Het probleem is als volgt: Heb 6 soorten campagnes als onafhankelijke variabelen en consumptie als afhankelijke. De 6 campagnes worden met ieder 5 vragen gemeten (5-punts Likert). Heb door wat rotte appels te verwijderen mooie Cronbach's Alphas verkregen. Nu ga ik iedere campagne aan consumptie linken met een regressie analyse, dat moet lukken hoop ik. Maar allereerst wil ik gewoon het verschil tussen de campagnes meten. Mijn begeleider had het over een t-test of ANOVA. Maar bij een t-test krijg je gewoon de gemiddelden, standaardafwijkingen, vrijheidsgraden en de p-waarde. Ik bedoelde eigenlijk meer van welke vaker voorkomt. Uiteraard weten jullie niet wat mijn begeleider bedoelt, maar vanuit een kennersoogpunt, ben ik nou goed bezig of heb ik de verkeerde analyse te pakken?
    hoe bedoel je vaker voorkomt als elke ppn elke campagne heeft beoordeeld/ingevuld?

    wat is/ zijn je IV's en zijn ze categorisch of scale?

    wat is / zijn je dv's en cat/scale?
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
    pi_84406158
    Stel: zes soorten campagnes waar wordt ingespeeld op persoonlijkheden. Sportief, upperclass, ruig, mannelijk, vrouwelijk, hip. Dit zijn de IV's en zijn opgebouwd door bij ieder construct 5 items samen te voegen middels compute variable. De items werden gemeten op 5-punts Likert en het construct is een gemiddelde van de items (Ordinaal). De DV is de consumptie in aantallen, dus scale.

    Heb onvolledige surveys verwijderd, dus alles is compleet wat dat betreft.

    Na even gedacht te hebben, gewoon voor ieder construct een t-test doen en mean&std dev in een tabelletje zetten? Ik denk dat mijn begeleider gewoon een soort algemeen statistiekje wil zien van de data ofzo.

    Ik snap dat het niet duidelijk is wat ik bedoel, dat snap ik zelf ook niet. Hoop toch dat je hier nog wat mee kan.
      vrijdag 23 juli 2010 @ 17:54:36 #121
    219590 oompaloompa
    doompadeedee
    pi_84406212
    quote:
    Op vrijdag 23 juli 2010 17:52 schreef aarstulp het volgende:
    Stel: zes soorten campagnes waar wordt ingespeeld op persoonlijkheden. Sportief, upperclass, ruig, mannelijk, vrouwelijk, hip. Dit zijn de IV's en zijn opgebouwd door bij ieder construct 5 items samen te voegen middels compute variable. De items werden gemeten op 5-punts Likert en het construct is een gemiddelde van de items (Ordinaal). De DV is de consumptie in aantallen, dus scale.

    Heb onvolledige surveys verwijderd, dus alles is compleet wat dat betreft.

    Na even gedacht te hebben, gewoon voor ieder construct een t-test doen en mean&std dev in een tabelletje zetten? Ik denk dat mijn begeleider gewoon een soort algemeen statistiekje wil zien van de data ofzo.

    Ik snap dat het niet duidelijk is wat ik bedoel, dat snap ik zelf ook niet. Hoop toch dat je hier nog wat mee kan.
    Ik raak heel erg verward dat je campagnes zowel de independent variable / manipulatie zijn als de afhankelijke?

    ik loop je niet op te fokken & wil graag helpen, maar ik begrijp helemaal niet wat je precies hebt gedaan en wilt meten
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
    pi_84406633
    Had 6 hypotheses die betrekking hadden op de relatie tussen de campagne(IV) en de consumptie van die persoon(DV). Toen heeft mijn begeleider gezegd: maak daar H2a - H2f van en in mn aantekeningen staat: "nieuwe H1: verschil in campagne (t-test / ANOVA?)". Omdat ik pas maandag weer contact met hem kan hebben dacht ik misschien begrijpt een SPSS-er wat er bedoeld wordt zodat ik dit weekend door kan.

    Kan voorlopig nog met die regressies aan de slag dus lukt het niet, dan lukt het niet. Bedankt iig!

    edit: bij de nieuwe H1 is er dus geen sprake van IV/DV maar het is meer iets van: is dit aanwezig of niet ofzo. moeilijk uit te leggen als je zelf niet weet wat je pccs bedoelt
      vrijdag 23 juli 2010 @ 19:20:03 #123
    75592 GlowMouse
    l'état, c'est moi
    pi_84409224
    quote:
    Op donderdag 22 juli 2010 14:43 schreef oompaloompa het volgende:

    [..]

    ik heb hier geen spss maar er zou binary logistic tussen moeten staan?

    Bij twee keuzes kun je net zo goed voor ordinal kiezen.
    eee7a201261dfdad9fdfe74277d27e68890cf0a220f41425870f2ca26e0521b0
      vrijdag 23 juli 2010 @ 20:14:29 #124
    219590 oompaloompa
    doompadeedee
    pi_84411337
    quote:
    Op vrijdag 23 juli 2010 18:07 schreef aarstulp het volgende:
    Had 6 hypotheses die betrekking hadden op de relatie tussen de campagne(IV) en de consumptie van die persoon(DV). Toen heeft mijn begeleider gezegd: maak daar H2a - H2f van en in mn aantekeningen staat: "nieuwe H1: verschil in campagne (t-test / ANOVA?)". Omdat ik pas maandag weer contact met hem kan hebben dacht ik misschien begrijpt een SPSS-er wat er bedoeld wordt zodat ik dit weekend door kan.

    Kan voorlopig nog met die regressies aan de slag dus lukt het niet, dan lukt het niet. Bedankt iig!

    edit: bij de nieuwe H1 is er dus geen sprake van IV/DV maar het is meer iets van: is dit aanwezig of niet ofzo. moeilijk uit te leggen als je zelf niet weet wat je pccs bedoelt
    sorry ik begrijp echt niet wat je wilt precies. Is het een soort manipulatiecheck? Je manipuleert(?) campagne en kijkt naar het effect op consumptie. maar als je campagne manipuleert valt er weinig aan te meten toch? Of meet je slechts campagne en heb je dus een andere IV die je nog niet genoemd hebt?
    Op dinsdag 1 november 2016 00:05 schreef JanCees het volgende:
    De polls worden ook in 9 van de 10 gevallen gepeild met een meerderheid democraten. Soms zelf +10% _O-
      vrijdag 23 juli 2010 @ 21:29:16 #125
    302800 Frith
    fictief en almachtig
    pi_84414372
    quote:
    Op vrijdag 23 juli 2010 16:41 schreef aarstulp het volgende:
    Het probleem is als volgt: Heb 6 soorten campagnes als onafhankelijke variabelen en consumptie als afhankelijke. De 6 campagnes worden met ieder 5 vragen gemeten (5-punts Likert). Heb door wat rotte appels te verwijderen mooie Cronbach's Alphas verkregen. Nu ga ik iedere campagne aan consumptie linken met een regressie analyse, dat moet lukken hoop ik. Maar allereerst wil ik gewoon het verschil tussen de campagnes meten. Mijn begeleider had het over een t-test of ANOVA. Maar bij een t-test krijg je gewoon de gemiddelden, standaardafwijkingen, vrijheidsgraden en de p-waarde. Ik bedoelde eigenlijk meer van welke vaker voorkomt. Uiteraard weten jullie niet wat mijn begeleider bedoelt, maar vanuit een kennersoogpunt, ben ik nou goed bezig of heb ik de verkeerde analyse te pakken?


    Dit is wat ik lees:

    er zijn 6 campagnes (als onafhankelijke variabelen) tegenover consumptie als afhankelijke variabele. Hiermee wil je het effect per campagne bepalen op consumptie. (dus een 1-op-1 connectie wat het model betreft).

    Verder heb je deze campagnes samengesteld uit 5 vragen met likert schalen en de missings (latere post) verwijderd. Verder wil je de campagnes ook met elkaar vergelijken om te zien of de gemiddelden (en wat betekent dit dan precies?) van elkaar verschillen.


    1. het gebruik van lineaire regressie is hier enigszins overbodig aangezien het hier om een nuldeorde correlatie gaat. Wat dus betekent dat regressie hier hetzelfde resultaat geeft als directe correlatie, maar dat je wel rekening moet houden met de extra voorwaarden voor het gebruik van regressie.

    Dit doe je vervolgens zes maal, voor iedere campagne apart. Dit heb je al, als het goed is.


    2. je begeleider wijst je qua methode terecht naar t-toets of ANOVA, ware het niet dat een serie t-testen over dezelfde data leidt tot een toenemende kans op een type I fout. Deze 'familywise error' is te voorkomen door met een ANOVA de gemiddelden te vergelijken, aangezien je hier meer dan twee groepen hebt.
    (ANOVA is vanaf drie of meer)


    en volgens mij is dat het, tenzij je nog werkelijk frequentietabellen wilt gaan uitdraaien (why?).


    edit:

    overigens geldt ook hier weer dat factoranalyse + cronbach's alpha gebruikt moet worden. Je stelt immers een supervariabele vast aan de hand van meerdere items / variabelen.

    en je meetniveau is interval of ratio, want anders kun je al helemaal geen regressie uitvoeren. (het is ratio overigens, voor zover ik hier kan inschatten).

    [ Bericht 7% gewijzigd door Frith op 23-07-2010 21:36:31 ]
    abonnement Unibet Coolblue
    Forum Opties
    Forumhop:
    Hop naar:
    (afkorting, bv 'KLB')