Frith | vrijdag 11 november 2011 @ 18:07 |
Deze discussie werd aangewakkerd in een ander topic, maar daar mocht het niet, dus bij deze een eigen topic. De eer voor het topic gaat naar Compatibel, met de volgende post:Mijn eigen ervaring ermee is dat het in principe niet de statistiek zelf is, die het grootste probleem oplevert, maar met name de koppeling aan de theorie / hypothesen en dan nog eens het interpreteren van SPSS bewerkingen. Om ook maar enige snars te vatten van wat SPSS uitdraait moet je in feite al een intiem begrip hebben van de statistische technieken. Maar: die worden niet op het middelbaar onderwijs gegeven (afgezien van normaalverdeling en kansberekening) en binnen het bestek van een vervolgopleiding is daar allemaal geen tijd meer voor, dus iedereen wordt een beetje erin "gedumpt" met een instructiebriefje en succeswensen. Tel daar nog eens bij op dat het eerste jaar een gigantisch aantal meer studenten heeft dan de andere jaren, en je hebt dan (dus) ook nog eens dat de begeleiding per persoon zeer minimaal wordt. Waarmee dan ook de situatie ontstaat dat tweedejaars studenten eerstejaars gaan nakijken / begeleiden. Persoonlijk denk ik dat de plotse schok van onbekend materiaal en minimale begeleiding een grote factor is in het falen dan wel overmand worden van studenten door 'statistiek'. Het voordeel daarvan is dan overigens weer wel dat ik niet zo gek veel studenten uit latere jaren ken die echt heel weinig snappen van statistiek, maar lage cijfers voor die cursussen en een algemene afkeer ( "ik heb het niet op kwantitatief onderzoek, want ik ben een alfa". ..... the fuck? ) blijven wel aanwezig. Tot zover mijn bijdrage. ![]() Voor wie zelfs dat al teveel moeite vind om te lezen (luiwammes), hier nog eens de kernvraag: Waarom hebben zoveel beginnende studenten in de sociale wetenschappen zo veel moeite met statistiek? | |
Compatibel | vrijdag 11 november 2011 @ 18:22 |
Goed topic ![]() Ik denk zelf dat statistiekvakken werken als een selectiemechanisme. Sociale wetenschappen hebben nu eenmaal bijna geen instroomeisen, en met name in het eerste jaar heeft statistiek een hoger abstractieniveau dan de inhoudelijke vakken. Toch knaagt er bij mij iets, omdat het mij totaal niet aanstaat dat een instrumenteel bijvak, geleend van een ander wetenschapsgebied, zo'n struikelblok is. Zouden juist de vakinhoudelijke aspecten niet het moeilijkst moeten zijn? Overigens kan ik mij niet voorstellen dat een intelligente alfa niet in staat is om basale statistiek onder de knie te krijgen. | |
twaalf | vrijdag 11 november 2011 @ 18:22 |
Op de vraag 'waarom gebruik ik SPSS en doe ik het niet op papier?' zijn twee antwoorden mogelijk. Het foute antwoord is 'ik kan het niet op papier'. Het goede antwoord is 'ik wil geen 1000 waarden opschrijven op papier'. Iemand die SPSS gebruikt moet zich altijd afvragen of hij de berekeningen die SPSS uitvoert, ook zelf zou kunnen doen. Als dat niet zo is, is SPSS zinloos; die situatie komt bij studenten sociale wetenschappen vaak voor. | |
rubje | vrijdag 11 november 2011 @ 18:30 |
ff terugkomend op je tt Waarom is statistiek voor studenten in sociale wetenschappen moeilijk? omdat ze misschien teveel in hun eigen denkwereldje zitten en dus alles wat daarbuiten valt niet begrijpen of kunnen begrijpen? ![]() ![]() | |
Compatibel | vrijdag 11 november 2011 @ 18:31 |
Ik denk dat het goed is om basale dingen als correlaties, anova's en regressieanalyses ooit eens op papier uit te voeren, maar om nu te stellen dat je dit altijd zou moeten kunnen lijkt me wat overdreven. Ik heb dit allemaal wel eens gedaan, maar als je me nu vraagt om dit uit het niets te doen gaat dat echt niet lukken. Volgens mij is belangrijk dat iemand begrijpt wat er gebeurt in bijvoorbeeld een regressieanalyse, en hoe de uitkomsten daarvan correct kunnen worden geïnterpreteerd (voorbij 'p<0.05 betekent dat het klopt, toch?'). | |
Bram_van_Loon | vrijdag 11 november 2011 @ 18:50 |
Kijk naar de groep studenten bij een ´sociale` studierichting: vooral studenten die als VWO'er of als havist (instroom via een jaartje HBO) moeite hadden met de exacte vakken. Het lijkt me logisch dat iemand die geen wiskunde B volgt en die al moeite heeft met wiskunde A dat zo iemand ook moeite gaat hebben met statistiek en al helemaal als die ook nog ietwat gevorderder zij het minder theoretisch (niet de afleidingen hoeven te kunnen geven van allerlei formules) is. Zou het niet een interessantere topicvraag zijn waarom statistiek wel al dan niet belangrijk is voor 'sociaal' onderzoek? | |
Thomass | vrijdag 11 november 2011 @ 19:03 |
Waarom eigenlijk 5% en niet bijvoorbeeld 3%, 2% of 1%? Waarom niet 0.1%? Heb ik me altijd al afgevraagd | |
Compatibel | vrijdag 11 november 2011 @ 19:05 |
Ik heb ook wel eens 10 procent gezien hoor. Zolang je als wetenschapper maar vermeldt welk significatieniveau je hanteert maakt het niet zoveel uit natuurlijk. | |
Compatibel | vrijdag 11 november 2011 @ 19:08 |
Natuurlijk trekken sociale wetenschappen minder diehard bèta's aan, maar vrij basale statistiek moet door elke vwo'er wel begrepen kunnen worden lijkt me. Ik zie trouwens niet in waarom we moeten twijfelen aan het nut van statistiek in sociale wetenschappen, dat lijkt me vrij evident namelijk. | |
Guma | vrijdag 11 november 2011 @ 20:15 |
De werkelijke oorsprong is onbekend. Waarschijnlijk is het een mix tussen Fisher zijn ideeën en die van Jerzy Neyman en Egron Pearson. In het boek van Andy Field 'Discovering Statistics Using SPSS' wordt er een poging gedaan om het mysterie te ontrafelen. Mogelijk heeft het te maken met de era voor computers waarin alles dus wel met de hand werd berekent. | |
Lindstrøm. | vrijdag 11 november 2011 @ 20:17 |
Ligt allemaal aan de middelbare school. Mensen die wiskunde A hebben gehad missen op een van de manier dat inzicht om logisch na te denken. | |
Guma | vrijdag 11 november 2011 @ 20:19 |
Oneens. Wiskunde A of B zou totaal geen invloed moeten hebben op het wel of niet snappen van statistiek. Zeker gezien het feit dat statistiek het invullen is van formules, niet algebraïsch rekenen. Het is het punt waarin er überhaupt cijfers aan te pas komen, dat studenten schrikken en falen. | |
speknek | vrijdag 11 november 2011 @ 20:35 |
Een aantal redenen imo. De voornaamste is dat ze zich makkelijk laten intimideren door getallen en Griekse tekens, dit zijn mensen die (al dan niet terecht) het gevoel hebben gekregen, door de middelbare school of door de cultuur waarin meisjes geacht worden er niets van te kunnen, a-wiskundig te zijn. Op het moment dat ze iets niet op het eerste gezicht begrijpen zullen ze dan al gelijk geen moeite ervoor doen. Het is in zekere zin ook een andere luiheid: veel alfa/gamma vakken kun je je in redelijke mate doorheen bluffen, danwel declaratieve kennis reproduceren; daar zitten natuurlijk heel wat gradaties in, maar het is toch anders dan problemen oplossen. Voor statistiek moet je wat meer moeite doen. De laatste reden (en hierin sta ik diametraal tegenover twaalf), is dat statistiekvakken vaak door wiskundigen gegeven worden, of door mensen die hun vak proberen te perfectioneren vanuit een mathematisch correct oogpunt. Daardoor beginnen ze met veel te veel theorie, het uitvoeren van volkomen triviale sommetjes en tabelletjes, en allemaal weinig nuttige tests voor de gemiddelde onderzoeker. Dit staat veel te ver af van de gemiddelde student, die statistiek enkel als tool nodig heeft. Statistiek is in wezen hartstikke simpel; je hebt verdelingen en je kunt bij vrijwel elk experiment een variantie analyse doen, waar je een onafhankelijke en een afhankelijke variabele hebt. Dan nog wat over covariaten en je kunt zo onderzoek doen en papers gaan publiceren. In plaats daarvan word je eindeloos gedoceerd over elk soort nonparametrische test, ookal blijkt uit monte carlo tests dat deze meestal veel minder precies zijn zelfs bij niet-normale verdelingen. Na een compleet blok van dat oeverloze gelul kunnen de meeste studenten net een t-test doen, en zijn ze alle theorie een jaar later toch weer vergeten. Leer ze gewoon wat ze moeten weten. Zelf vind ik wat dat betreft Andy Field fantastisch. | |
speknek | vrijdag 11 november 2011 @ 20:36 |
oh spuit 11 ![]() | |
Guma | vrijdag 11 november 2011 @ 20:41 |
Alleen jammer dat Andy Field naar mijn mening net iets teveel om het punt heen draait. Wat resulteert in een boek van plus minus 800 pagina's. Maar dat wat hij bespreekt, is wel in duidelijke taal en zeer begrijpelijk. Verklaart ook waarom ik het boek in mijn studie moet gebruiken. ![]() | |
Lindstrøm. | vrijdag 11 november 2011 @ 21:00 |
jij heb helemal gelijk vriend | |
twaalf | vrijdag 11 november 2011 @ 21:06 |
Voor een vakgebied waarin bij elk onderzoek conclusies uit statistiek worden getrokken, is het niet voldoende om wat losse gereedschappen aan te bieden. Iedere prutser kan gegevens invoeren in SPSS en vervolgens een p-waarde of een schatter overschrijven. Zonder voldoende theoretische kennis kun je die uitkomsten niet interpreteren. Uiteraard hoeft het geen wiskundevak te worden, maar een kennis van waarom je welke aannames nodig hebt voor welke toets of schatting maakt SPSS veel duidelijker. Het is schokkend dat met Andy Field statistiek wordt gereduceerd tot een handleiding voor een computerprogramma. | |
Bolkesteijn | vrijdag 11 november 2011 @ 21:08 |
Omdat het vaak slecht uitgelegd wordt. | |
speknek | vrijdag 11 november 2011 @ 21:11 |
Hoe moeilijk is het de uitkomst van p = 0.04 te interpreteren. Dat je daar moeilijk over doet is exemplarisch voor het probleem. | |
SH. | vrijdag 11 november 2011 @ 21:11 |
Tja, waarom zou het niet moeilijk zijn? - De meeste mensen in de sociale wetenschappen hebben wiskunde A1,2 (of A / C) gedaan en zijn dus vaak slecht in wiskunde. - Statistiek is de enige vorm van wiskunde in de studie en dus train je niet met andere vakken. Calculus ontbreekt, heck, zelfs haakjes uitwerken waren veel studenten vergeten ( ![]() - Het blijft 'statistiek zonder wiskunde'. Ja, je moet bepaalde waardes uit kunnen rekenen, maar dat is puur stappen volgen. Echt wiskundig wordt het nooit. Eigenlijk precies wat twaalf net zegt: Al moet ik wel zeggen dat ik het bij geneeskundestudenten nog veel erger vindt... | |
Bolkesteijn | vrijdag 11 november 2011 @ 21:12 |
Dit ligt toch echt aan de docent zelf en niet aan Field. Field beschrijft gewoon hoe je om moet gaan met dat archaïsche programma dat SPSS heet (ik kan met Excel, Stata, Maple en EViews flitsend overweg dus het ligt niet aan mij ![]() [ Bericht 5% gewijzigd door Bolkesteijn op 11-11-2011 21:21:59 ] | |
SH. | vrijdag 11 november 2011 @ 21:16 |
"We vonden een p-waarde van 0.04, dus de nulhypothese is niet waar." Veelgemaakte fout nummero uno? ![]() | |
Bolkesteijn | vrijdag 11 november 2011 @ 21:19 |
Er is een statistisch significante aanwijzing gevonden dat de nulhypothese verworpen moet worden. | |
Guma | vrijdag 11 november 2011 @ 21:21 |
Ik vind het toch jammer dat vaak gesteld wordt dat mensen die wiskunde a/c hebben gevolgd slecht zouden zijn in wiskunde. Om te koppeling naar statistiek te maken, waarom moet je daarvoor in staat zijn om algebraïsch te kunnen werken? Je hoeft een theorie niet tot op de bodem te doorgronden, elke waarde om te keren om te begrijpen wat er wordt uitgevoerd en waarom dit gebeurt. Daar kunnen mensen die 'slechts' wiskunde a of c hebben gedaan ook uitkomen. Er moet gestopt worden om een onderscheidt te maken tussen wiskunde a/c en b op het gebied van statistiek. Het probleem ligt daar waarschijnlijk helemaal niet. | |
speknek | vrijdag 11 november 2011 @ 21:22 |
Dan nog is het meer syntactiek dan semantiek. Iedereen weet wat het uiteindelijke effect ervan is. | |
Frith | vrijdag 11 november 2011 @ 21:23 |
Ik weet niet welk boek jij hebt zitten lezen, maar ik vind de uitleg van Andy Field vele malen helderder dan de uitleg in formules in andere boeken over statistiek. Ja, de uitleg in formules kan ook werken en het vermogen om het op zijn minst handmatig in te schatten kán handig zijn, maar in de praktijk is de tussenvoeging van een programma / interface niet anders dan het tussenvoegen van een rekenmachine. SPSS doet bijvoorbeeld bijzonder weinig voor je en laat het interpreteren van de data compleet aan de gebruiker over. Om SPSS dus te kunnen gebruiken moet je al weten hoe de methodes werken. In geen zin reduceert SPSS de data dus tot trail & error en doet Andy Field de methodes niet reduceren tot SPSS. Trouwens, voor zover nodig legt Field het ook met formules uit. | |
Bolkesteijn | vrijdag 11 november 2011 @ 21:25 |
Ik vind de nuancering wel belangrijk hoor, je voorkomt er mee dat er conclusies van waar en onwaar door getrokken gaan worden. | |
speknek | vrijdag 11 november 2011 @ 21:31 |
Niet als je waar en onwaar al in de eerste plaats op basis van statistische waarschijnlijkheid (tot het verwerpen etc) definieert, wat de gemiddelde sociale wetenschapper zal doen. Een ander voorbeeld is, zo is mij althans geleerd, dat je niet mag opschrijven dat groepen significant verschillend zijn (maar je moet zeggen dat er een significant effect van conditie op een factor is). Ik doe het heel soms fout, en heel veel wetenschappers doen het altijd fout, maar ik kan me er niet te druk om maken. Uiteindelijk gaat het om de resultaten, en laten andere mensen maar gaan zitten kommaneuken als dat ze belangrijk doet voelen. | |
SH. | vrijdag 11 november 2011 @ 21:33 |
Er is een groot verschil tussen het niet waar zijn van een theorie en het aannemen dat hij niet waar is. Evenals dat de alternatieve hypothese(n) niet waar hoeven te zijn. Heel statistiek gaat om kansen, maar zonder echt achterliggende theorie zullen de studenten dat niet goed bevatten. Heck, juist de dingen waar ze bij psychologie (waar ik bij zit) over struikelen, is het begrijpen van de achterliggende concepten. Ze kunnen allemaal overweg met SPSS, ze weten hoe ze GLM en MANOVA's en dat soort prut kunnen doen, maar het begrijpen laat vaak te wensen over. En daar gaat het juist fout in mijn optiek. Overigens, meer van dat soort dingen vind je hier. Het is een website over een boek, maar op zich wel interessant om te zien. Het punt van wiskunde a/c geef ik je toe, dat maakt verder ook niet uit (of de discussie moet een andere richting op). Punt blijft dat je wiskunde moet kunnen om ook statistiek te kunnen. | |
Bolkesteijn | vrijdag 11 november 2011 @ 21:39 |
Oke, daar kan ik wel in komen, maar erger vind ik het bijvoorbeeld als niet duidelijk omschreven wordt of aan alle aannames van bijvoorbeeld meervoudige lineaire regressie (OLS in dit geval) is voldaan. Bijna nooit worden residuplots gepubliceerd in een appendix, zelden wordt aangetoond dat de onafhankelijke variabelen voldoen aan de vereiste afwezigheid van multicollineariteit, om maar eens twee belangrijke aannames te noemen. Als er hier fouten in zitten kan dat een volstrekt verkeerde statistische analyse opleveren dus je moet hier transparant in zijn ook al lijkt het misschien overbodig om het te vermelden. | |
speknek | vrijdag 11 november 2011 @ 21:47 |
Aan de ene kant eens, aan de andere kant, ik probeerde een keer een vreemd resultaat te wijten aan multicollineariteit, alleen maar om erachter te komen dat multicollineariteit pas enige factor gaat spelen als het p < 0.0001 was (of iets dergelijks, in ieder geval was dat weer typisch zoiets dat alle tekstboeken noemen, en in de praktijk compleet verwaarloosbaar is, net zoals dat je non-parametrische tests moet doen als je verdelingen niet normaal zijn, dat soort dingen heeft de gemiddelde onderzoeker die al >20 jaar in het vak zit altijd maling aan, je kunt meestal de broekies eruit vissen volgens mijn toenmalig copromotor) [ Bericht 16% gewijzigd door speknek op 11-11-2011 21:53:28 ] | |
Guma | vrijdag 11 november 2011 @ 21:51 |
Hmm, interessant. Sinds Dirk Stapel in het nieuws is gekomen, spenderen ze op de UvA meer aandacht aan het sluitender maken van onderzoeksverslagen. Met andere woorden, het aangeven of aan de vereiste assumpties is voldaan. Als motivatie werd er gesteld dat er getracht wordt de wetenschap te stimuleren dit ook daadwerkelijk te vermelden. Ben benieuwd of dit ook daadwerkelijk zal lukken, gezien de relevantie voor het onderzoek zelve. Ook in de wetenschappelijke bladen is het veelal paginavulling dat ook anders benut kan worden. 4 Ben benieuwd of dit zal lukken, hoe noodzakelijk het ook is voor de interpretatie. | |
Frith | vrijdag 11 november 2011 @ 22:59 |
Uiteindelijk gaan dat soort vragen meer naar de controleerbaarheid van artikelen versus de tijd die beschikbaar is om dat te doen. Maar dat is een probleem van het stelsel, niet van individuele studenten. Of specifiek aan sociale wetenschap.De reden voor het gebruik van statistiek is een verandering in de opvatting over wetenschappelijkheid, causaliteit en de generaliseerbaarheid van uitspraken. De wetenschappelijkheid van een theorie (of eigenlijk de collectie van afleidbare hypotheses, niet de theorie, want die kun je niet toetsen) wordt sinds Karl Popper gezien als het principe van falsificeerbaarheid. Dat komt neer op het gegeven dat er ruimte moet zijn om te laten zien dat de stelling niet waar kan zijn. Dit is om het inductieprobleem te vermijden, waarbij je enkel steeds maar aan het bevestigen bent, maar je geen idee hebt hoe betrouwbaar de stelling is of hoe ver die reikt. Je maar een zwarte zwaan nodig om aan te tonen dat de stelling "alle zwanen zijn wit" niet waar is, hoe vaak je die stelling ook zou hebben bevestigd. De verandering in causaliteit is dat met het erkennen van contingentie, complexiteit en emergentie het niet meer als evident kan worden gedacht dat een voorloper X noodzakelijk leidt tot een resultaat Y. Niet dat dit in de sociale wetenschappen door serieuze mensen ooit echt gedacht is, maar met inductie kom je wel automatisch op zo'n route terecht. Zelfs al is dat maar in de vorm van een "samen optreden" bij kwalitatief onderzoek. Statistiek is een manier om de waarschijnlijkheid van stellingen te kunnen achterhalen, aangezien waarschijnlijkheid en kans nu onderdeel worden geacht van causaliteit. De zekerheid gaat daarmee echter wel verloren, aangezien je wellicht iets 99,99% waarschijnlijk kunt maken, maar nooit helemaal. Het laatste aspect is dat je op basis van verdelingen in populatie met steekproeven een benadering kunt maken van de verdeling van eigenschappen in de populatie voorbij de directe steekproef. Je voorspelt in feite de kans dat een eigenschap kan optreden in de populatie wanneer die met een bepaalde mate van betrouwbaarheid voorkomt in de steekproef. Typisch gezien is dit vanaf 1000 mensen voor een factor die relatief veel variantie in de data verklaart, 2000 voor minder sterke factoren (Het SCP en CBS gebruiken 2000 aangezien veel factoren maar in de 10-20% verklaarde variantie vallen) en 10.000 voor hele kleine effecten, zoals epidemologisch onderzoek waarbij je bijvoorbeeld aan 1% van de steekproef moet denken. Bij correctie naar de populatie gaat daar dan ook nog wat vanaf. Nou, daarom dus (om maar wat redenen te noemen) statistiek. Er is echter wel een nadeel: falsificatie, wat statistiek dus doet door te testen op het gegeven dat het gevonden patroon in de data niet het geval is (het is het construct van de nulhypothese -een verdeling van ruis zonder patroon- waartegen getoetst wordt), kan alleen stellingen afbreken. Het kan echter geen ondersteuning geven voor de ontwikkeling van nieuwe theorie. Je zou dan wellicht denken: "dan verzin je toch wat", maar je wilt wel dingen gaan toetsen die daadwerkelijk ergens op gebaseerd zijn, anders zit je maar willekeurig wat te doen. Een ander nadeel is dat men te ver door drijft. Dat je krijgt dat er een correlatie is tussen A en B, zonder dat er enige zinvolle relatie tussen die twee gegeven wordt. Bijvoorbeeld waarom we zouden moeten verwachten dat er wel of geen correlatie is en wat dat dan betekent. Een correlatie betekent namelijk niets, het is pas in de theoretische relaties tussen concepten dat het zin krijgt. De rol van het genereren van theorie is dan eerder neergelegd voor kwalitatief onderzoek, wat dan weer wel gebruik maakt van inductie. korte versie: statistiek is dus een noodzakelijk middel voor het wetenschappelijk houden van een sociale discipline en daarom ook belangrijk voor haar studenten. |