Data-> Select cases -> Select cases if...quote:Op donderdag 17 mei 2012 14:20 schreef axz0l het volgende:
Misschien een hele stomme vraag. Van een aantal gegevens wil ik kijken hoevaak elke waarde voorkomt. Bijv: waarde A komt 3 keer voor, waarde B 4 keer en waarde C 8 keer.
Nu doe ik dat heel simpel via analyze frequencies, maar ik wil alles wat 0, 1 en 2 keer voorkomt NIET weergeven. Dus ik wil alleen alles wat 3x of vaker voorkomt weergeven met daarbij hoevaak dit voorkomt.
Kom er echt niet uit, ook de handleiding van SPSS en het internet niet, misschien dat iemand mij hier kan helpen?
Variabele kopiëren, ctrl + F, alle veel voorkomende antwoorden vervangen (door 'replace') door numerieke waarden en die waardes coderen bij variable labels. Vervolgens de overige verwijderen of system missing van maken. Als laatste nog zorgen dat het een numerieke varaibele is en dan kan je als het goed is frequentietabellen maken.quote:Op dinsdag 22 mei 2012 17:18 schreef axz0l het volgende:
Mensen, ik kom er niet uit dus ik hoop dat iemand mij toch nog verder kan helpen. Het gaat om een
kolom waar mensen zelf een 'automerk' intypen, neem peugeot als voorbeeld (het is dus een string).
Uiteindelijk kijk ik via frequencies en zie ik nu dat 55 mensen peugeot hebben ingevoerd, 38 mensen volkswagen en bijvoorbeeld maar 1 iemand die kiest voor Toyota, 1 iemand die kiest voor Honda.
Omdat het nu een gigantische lijst is, wil ik alle automerken die slechts 1x voorkomen (die dus door 1 iemand zijn ingevuld) weglaten, maar ik krijg het maar niet voor elkaar!!
Select if dat heeft geen zin, want de output van analyze, frequencies is geen variabele. Die kan ik dus niet selecteren.
Hoe kan ik nou mijn frequenties in de output window zo sorteren dat alles wat slechts 1x is genoemd, niet getoond wordt?!
SPOILEROm spoilers te kunnen lezen moet je zijn ingelogd. Je moet je daarvoor eerst gratis Registreren. Ook kun je spoilers niet lezen als je een ban hebt.nvm
[ Bericht 5% gewijzigd door Silverdigger2 op 28-05-2012 23:52:52 ]
Je kunt non-parametrisch toetsen, maar bij genoeg proefpersonen is een schending van levene's test niet zo rampzalig.quote:Op dinsdag 29 mei 2012 14:48 schreef KrentebolHooft het volgende:
Ik moet een ANOVA test uitvoeren, maar de Levene's test die homogeneity bepaald geeft een significante waarde aan. Dat betekend dus dat de varianties niet gelijk zijn in de groepen en een ANOVA (die gelijke varantie vereist) toets niet mag worden gebruikt.
Heb al met mijn stagebegeleider overlegd en hij raadde aan om de data te transformeren. Heb al verschillende log en Ln transformaties geprobeerd, maar het blijft altijd significant aangeven.
Heeft iemand nog ideeën om dit te verhelpen? Of wat ik kan overwegen als alternatief (wat dus wel mogelijk is met ongelijke varianties).
Kruskal-Wallis wordt het meest gebruikt, dus als je niet in de literatuur wilt duiken met betrekking tot de andere tests is het misschien een goed idee om die (als je dat kunt) te gebruiken.quote:Op dinsdag 29 mei 2012 15:08 schreef KrentebolHooft het volgende:
Ja inderdaad, dat was ook een optie
Zijn er nog nonparametrische toetsen buiten de Kruskal-Wallis en Wilcoxon-Rank sum toetsen? Ik ga sowieso die 2 denk ik even bekijken.
edit: ik zie er zo al een boel staan in SPSS, dat wordt lekker proberen
Ik word niet wijs uit jouw lap tekst. Wat is je afhankelijke variabele (en meetschaal) en wat zijn je onafhankelijke variabelen (en meetschaal) per hypothese? Dan kunnen we even wat gerichter kijken.quote:Op donderdag 7 juni 2012 14:55 schreef Kneivster het volgende:
Verder, wat voor verdere analyse zouden jullie uitvoeren hierop om uiteindelijk de hypotheses te testen? Ik lees overal verschillende dingen, de één voert een Mann-Whitney U Test uit (Niet parametrische test tussen 2 onafhankelijke samples), de ander een One-sample Kolmogorov Test (ook niet parametrisch, maar met 1 sample). Ik zie door de bomen het bos niet meer...
Alvast vele malen dank voor de hulp!
quote:Op donderdag 7 juni 2012 14:55 schreef Kneivster het volgende:
maar hoe kan ik van 2 (of meer) variabelen het gezamenlijke gemiddelde en standaarddeviatie laten berekenen zodat dit een samengevoegde variabele wordt en ik deze variabele later ook weer kan gebruiken in verdere statische analyses?
Volgens mij ben ik er, wat dit deel betreft, zelf uitgekomen. Klopt het als je dit doet: Transform -> compute new variable -> naam nieuwe variabele; MEAN(variabele 1, variabele 2, enz)?quote:[Nou kan het dus zijn dat 2 onafhankelijke variabelen samen genomen moeten worden omdat ze uitmaken van 'grotere' onafhankelijke variabele (bijvoorbeeld: onder dezelfde hypothese als bovenstaand zijn er ook twee vragen met betrekking tot de beoordeling van het huidige kostensysteem t.o.v. activity-based costing. Deze twee vragen hebben alletwee een aparte onafhankelijke variabele en worden ook alletwee apart getoetst, maar ik wil ze ook samenvoegen om, in dit geval, het geheel van de beoordeling van het huidige kostensysteem te toetsen aan de adoptie van activity-based costing.
Zoek de originele bron eens op en kijk wat daar in staat beschreven.quote:Op donderdag 21 juni 2012 09:57 schreef Oidipous het volgende:
Dag,
Ik heb een sample van 40.000 bedrijfsjaren waarover ik een regressie laat uitvoeren door SPSS.
Nu staat het volgende in vergelijkbaar onderzoek:
To control for error dependence of firm observations, we use Rogers (1993) standard errors clustered at the firm level in all regressions (Petersen 2009).
Hoe doe ik dit in SPSS? Is daar een functie voor? Ik maak gebruik van PASW statistics 18.
Ik kan je daar geen antwoord op geven, maar misschien heb je hier wat aan: http://www.theanalysisfac(...)tors-and-covariates/quote:Op donderdag 21 juni 2012 10:26 schreef yozd het volgende:
Kan iemand mij uitleggen wat in SPSS het verschil is tussen een "fixed factor" en een "covariate" bij bijvoorbeeld univariate variantie analyse?
Omdat je bij de afhankelijke variabele alleen de uitkomsten 1 of 0 hebt en waardes daartussen geen interpretatie hebben, terwijl die uitkomsten wel mogelijk zijn met een normale lineaire regressie. Een logistische regressie model modelleert de uitkomst in kansen op 1 en 0 die je kunt omzetten naar uitkomsten 1 en 0.quote:Op maandag 25 juni 2012 11:11 schreef koenvanveen het volgende:
Bij mij zijn alleen de onafhankelijke variabelen (verklaring en empathie) dichotoom. De afhankelijke en medierende variabelen zijn gewoon dichotoom. Een aantal controle variabelen zijn daarentegen weer nominaal.
Maar je geeft aan dat de X toch gewoon dichotoom kan zijn bij lineaire regressie. Waarom zou ik dan logistische regressie moeten gebruiken? En waarom zou dat script dan moeten detecteren of de X dichotoom is om zo logistische regressie te gebruiken?
Ik zit op die functie te zoeken, maar het wordt me nog niet helemaal duidelijk wat je er mee kan. Zou je in een (paar) simpele zin(nen) uit kunnen leggen wat je er mee kan? Heb er geen ervaring mee.quote:
Ik lees je reactie nu pas, had deze functie zelf al gevonden ja. Bedankt!quote:
Nu heb ik voor variabele 1 de volgende normal line:quote:Assumptions
There are a number of assumptions common to all the techniques covered in part Four. These are discussed below. You will need to refer back to these assumptions when performing any of the analyses covered in Chapters 11, 12, 13, 14 and 15.
[...]
Normality
Scores on each variable should be normally distributed. This can be checked by inspecting the histograms of scores on each variable (see Chapter 6) for instructions).
De verkregen grafiek:quote:compute logit=105.59640982551976 + 0.006987722743432774 * hbowo + 15.309299729723998 * kerklidmaatschap + -0.004312743957170497 * hbowo * kerklidmaatschap .
compute voorspeld= (exp (logit)) /
(1 + (exp (logit))).
exe.
GGRAPH
/GRAPHDATASET NAME="graphdataset" VARIABLES=hbowo MEAN(voorspeld)[name="MEAN_voorspeld"]
kerklidmaatschap MISSING=LISTWISE REPORTMISSING=YES
/GRAPHSPEC SOURCE=INLINE.
BEGIN GPL
SOURCE: s=userSource(id("graphdataset"))
DATA: hbowo=col(source(s), name("hbowo"))
DATA: MEAN_voorspeld=col(source(s), name("MEAN_voorspeld"))
DATA: kerklidmaatschap=col(source(s), name("kerklidmaatschap"), unit.category())
GUIDE: axis(dim(1), label("aantal_hbowo_studenten_keer_1000"))
GUIDE: axis(dim(2), label("Mean voorspeld"))
GUIDE: legend(aesthetic(aesthetic.color.interior), label("wel_of_niet_kerkelijk"))
SCALE: cat(aesthetic(aesthetic.color.interior), include(".0", "1.00"))
ELEMENT: line(position(hbowo*MEAN_voorspeld), color.interior(kerklidmaatschap), missing.interpolate())
END GPL.
Hmm, gemakkelijk?quote:Op zondag 8 juli 2012 23:22 schreef oompaloompa het volgende:
ik maak nooit grafieken in spss, maar als niemand je verder helpt, kun je hem altijd gemakkelijk in excel maken..
Als ik je goed begrijp doe je gewoon contrasten..quote:Op maandag 9 juli 2012 22:18 schreef automatic_ het volgende:
Ik snap even iets niet.
Ik heb drie leeftijdsgroepen en vier verschillende subgebieden van kwaliteit van leven. Ik wil nu kijken of er significante verschillen zijn tussen de drie leeftijdsgroepen en de subgebieden.
Dus bijvoorbeeld of groep 8-12 jaar significant verschilt met emotioneel functioneren of lichamelijke functioneren.
Hoe doe ik dit?
Ik heb al een ANOVA gedaan om te kijken naar de drie verschillende groepen op het gebied van "totaal functioneren". Of moet ik nu gewoon 5 losse ANOVA's doen? Ik dacht zelf aan een MANOVA maar daar kom ik niet uit
Oke... Ik ga dat nog eens even uitzoeken.quote:Op maandag 9 juli 2012 22:36 schreef oompaloompa het volgende:
[..]
Als ik je goed begrijp doe je gewoon contrasten..
Eerst een multivariate of er verschillen zijn in totaal, daarna bij de univariate resultaten kijken of er per subgebied verschillen zijn, daarna contrasten om te kijken welke groepen precies verschillen.
Je kunt dan beter een MANOVA met een posthoc test doen.quote:Op maandag 9 juli 2012 22:36 schreef oompaloompa het volgende:
[..]
Als ik je goed begrijp doe je gewoon contrasten..
Eerst een multivariate of er verschillen zijn in totaal, daarna bij de univariate resultaten kijken of er per subgebied verschillen zijn, daarna contrasten om te kijken welke groepen precies verschillen.
manova = multivariatequote:Op maandag 9 juli 2012 22:43 schreef Sandertje23 het volgende:
[..]
Je kunt dan beter een MANOVA met een posthoc test doen.
Als je toevallig op de uni komt wil ik je wel even helpen...quote:Op maandag 9 juli 2012 23:09 schreef automatic_ het volgende:
Sandertje23 heeft net even met mij meegekeken, maar SPSS loopt te zeuren dat er minder dan drie groepen zijn, terwijl die er wel zijn.
Ik ga morgen misschien wat inleveren, maar dat weet ik nog niet zeker. Bedankt in ieder geval! Ik ga het even onthoudenquote:Op maandag 9 juli 2012 23:12 schreef oompaloompa het volgende:
[..]
Als je toevallig op de uni komt wil ik je wel even helpen...
Alle soorten groepen goed ingesteld? (scale etc.)quote:Op maandag 9 juli 2012 23:09 schreef automatic_ het volgende:
Sandertje23 heeft net even met mij meegekeken, maar SPSS loopt te zeuren dat er minder dan drie groepen zijn, terwijl die er wel zijn.
Er zijn standaardafwijkingen voor skewness & kurtosis (kun je in descriptives vinden). Over het algemeen zolang de skewness / kurtosis niet sig afwijkt (meand +/- 1.96*sd omvat 0) is het goed.quote:Op maandag 9 juli 2012 22:56 schreef VacaLoca het volgende:
Iemand nog die mij kan vertellen (zie eerdere posts) hoe je best kan beoordelen wanneer een normal plot te afwijkend? Kan je het bijvoorbeeld ook in waardes uitdrukken en dat er ergens theorieën bestaan over vanaf welke waarden het ene geld en wanneer het ander?
Posthoc gebruik je meestal achteraf (als je geen richting hebt voor je hypothese). Een contrast gebruik je meestal vooraf (= gepland) als je wel een richting hebt voor je hypothese.quote:Op maandag 9 juli 2012 23:11 schreef oompaloompa het volgende:
[..]
manova = multivariate
post-hoc is een contrast
Maar wel fijn dat we het met elkaar eens zijn
Ja, volgens mij wel.quote:Op maandag 9 juli 2012 23:13 schreef Operc het volgende:
[..]
Alle soorten groepen goed ingesteld? (scale etc.)
SPSS gebruikt rare namen. Zowel van te voren (zonder correctie) als achteraf (post-hoc) zijn het allemaal contrasten. Waarom spss het ene afkort tot post-hoc en het andere de koepelterm "contrast" geeft is mij ook totaal onduidelijkquote:Op maandag 9 juli 2012 23:15 schreef Sandertje23 het volgende:
[..]
Posthoc gebruik je meestal achteraf (als je geen richting hebt voor je hypothese). Een contrast gebruik je meestal vooraf (= gepland) als je wel een richting hebt voor je hypothese.
Uiteraard
Thanks, stukje 'meand +/- 1.96*sd omvat 0' is helaas nog even onbekende taal voor mij. Ik heb met studie geen statistiek gehad, en probeer nu zelf snel te leren zo goed en zo kwaad als het kan. Heb even uitdraai gemaakt.quote:Op maandag 9 juli 2012 23:14 schreef oompaloompa het volgende:
[..]
Er zijn standaardafwijkingen voor skewness & kurtosis (kun je in descriptives vinden). Over het algemeen zolang de skewness / kurtosis niet sig afwijkt (meand +/- 1.96*sd omvat 0) is het goed.
Maar wanneer zouden mensen ervaren met statistiek het nog 'reasonable' noemen is dan mijn vraag betreffende bv de Q-Q plot die ik liet zien.quote:he actual shape of the distribution for each group can be seen in the Histograms. In this example, scores appear to be reasonably normally distributed. This is also supported by an inspection of the normal probability plots (labelled Normal Q-Q Plot). In this plot, the observed value for each score is plotted against the expected value from the normal distribution. A reasonably straight line suggests a normal distribution.
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |