Dit is de hele reden dat ik dus geen wiskunde kan, als je statestiek cursussen ziet dan praten ze altijd over compleet iets anders, "een machine maakt 300000 pilletjes en die wegen gemiddeld x gram" Dat soort getallen komen nooit voor in de biochemie, als je al een keer 100 celletjes typeert is dat ontzettend veel, en zeker als het dan uit verschillende experimenten komt vaak vele maanden extra werk voor een sterretje in de figuur.quote:Op dinsdag 31 januari 2012 15:40 schreef Felagund het volgende:
[..]
Het komt mij vaak als gegoochel met statistiek over. Het is vaak onduidelijk welke aannames worden gemaakt en of deze zijn te rechtvaardigen. Terwijl het principe dat als de errorbars klein zijn, dat dan de fout ook klein is, een stuk duidelijker is. Je kan ook bewijzen dat de temperatuurstijging significant afhangt van de daling van de piraten op aarde. Maar iedereen weet dat dit onzin is.
Dat heb ik niet eens zo genoemd, ik heb genoemd stof x gaat niet naar binnen en wel om deze reden fig a en deze reden fig b en deze reden fig c en deze reden fig d en deze reden fig e dan heb je uiteindelijk op 6 verschillende manieren laten zien dat het niet naar binnen gaat en dan gaan ze problemen maken over een proef die in een grafiek eruit ziet als zwart/wit. Ik zou met de beste wil van de wereld die grafiek niet zo kunnen tekenen dat het verschil er niet is.quote:Op dinsdag 31 januari 2012 15:43 schreef sheonlydreams86 het volgende:
[..]
Wat je met een t-test bewijst is dat de temperatuurstijging significant anders is bij veschillende aantallen piratenaantal piraten. Je hebt daarmee nog geen "causality" bewezen.
In veel papers is het vaak idd gegoochel, maar het gaat nu gewoon om het kwantificeren van het "de verschillen zijn groot en de errorbars zijn klein", daar kan je een waarde voor uitrekenen waar sommige mensen (zoals de reviewer) waarde aan hechten.
Je hebt zes keer een experiment gedaan met drie condities die je over drie momenten gemeten hebt?quote:Op dinsdag 31 januari 2012 15:39 schreef Bosbeetle het volgende:
Nee n=6 als in alle 9 punten zijn 6 keer afzonderlijk van elkaar gemeten, het experiment is 6 keer uitgevoerd.
Wil ie misschien effect sizes weten? Een manier om te duiden dat het ene effect zwaarder weegt dan het andere?quote:Op dinsdag 31 januari 2012 15:49 schreef Bosbeetle het volgende:
[..]
Dat heb ik niet eens zo genoemd, ik heb genoemd stof x gaat niet naar binnen en wel om deze reden fig a en deze reden fig b en deze reden fig c en deze reden fig d en deze reden fig e dan heb je uiteindelijk op 6 verschillende manieren laten zien dat het niet naar binnen gaat en dan gaan ze problemen maken over een proef die in een grafiek eruit ziet als zwart/wit. Ik zou met de beste wil van de wereld die grafiek niet zo kunnen tekenen dat het verschil er niet is.
Ik ook niet. Maar dat was al duidelijk. Ik reken wel gewoon een p waarde uit en gooi een sterretje boven een punt.quote:Op dinsdag 31 januari 2012 15:49 schreef speknek het volgende:
[..]
Je hebt zes keer een experiment gedaan met drie condities die je over drie momenten gemeten hebt?
Dan is n=18 lijkt me? Zes waardes per conditie. Doe je toch gewoon een RM-Anova? Kan best.
edit: ik begrijp er niks vaaan
quote:Op dinsdag 31 januari 2012 16:03 schreef sheonlydreams86 het volgende:
Ok, heb ik het zo goed:
- Je hebt dus 3 waardes op de X-as (bijvoorbeeld 3 momenten in tijd)
- Per X waarde heb je 3 verschillende situaties gemeten: controle, conditie1 en conditie2.
- Je hebt elke situatie 6 keer gemeten?
Ja en nu moet ik dat er nog bij gaan zettenquote:Op dinsdag 31 januari 2012 16:06 schreef sheonlydreams86 het volgende:
Geweldig!
Als je op X=3 voor controle [14, 16, 14, 16, 14, 16] hebt en voor conditie1 [58, 62, 58, 62, 58, 62] heb je wel degelijk een significant verschil, zelfs met n=6 (p = 1.8380e-009)
Niet zoals ik het opgeschreven heb natuurlijk, het is genoeg om te zeggen statistically significant at 5% level (p=...)quote:Op dinsdag 31 januari 2012 16:07 schreef Bosbeetle het volgende:
[..]
Ja en nu moet ik dat er nog bij gaan zetten
Dat weet ik maar ik vind het nogal onzinnig omdat de grafiek zo overduidelijk is maarja ik zal wel een p gaan uitrekenen etc. Er is ook nog 2de figuur en dat wordt lastiger omdat dat een kwantificatie van een blot is en blot's zijn eerder kwalitatief dan kwantitatief dus ik kan daar wel een waarde aan hangen maar dat zegt feitelijk niet zo veel.quote:Op dinsdag 31 januari 2012 16:09 schreef sheonlydreams86 het volgende:
[..]
Niet zoals ik het opgeschreven heb natuurlijk, het is genoeg om te zeggen statistically significant at 5% level (p=...)
Ik snap je punt, ik probeerde alleen uit te leggen wat de reviewer (waarschijnlijk) wil zienquote:Op dinsdag 31 januari 2012 16:10 schreef Bosbeetle het volgende:
[..]
Dat weet ik maar ik vind het nogal onzinnig omdat de grafiek zo overduidelijk is maarja ik zal wel een p gaan uitrekenen etc. Er is ook nog 2de figuur en dat wordt lastiger omdat dat een kwantificatie van een blot is en blot's zijn eerder kwalitatief dan kwantitatief dus ik kan daar wel een waarde aan hangen maar dat zegt feitelijk niet zo veel.
Je snapt toch wat een t-test doet?quote:Op dinsdag 31 januari 2012 16:14 schreef Bosbeetle het volgende:
vandaar dat ik zo'n fan ben van wiskunde.
Echt ultiem respect voor mensen die wel wiskunde kunnen, ik lees ook met plezier populair wetenschappelijke boeken over wiskunde ik vind het fascinerend ik kan het zelf alleen totaal niet.
Daar zijn de meningen ook over verdeeld.quote:Op dinsdag 31 januari 2012 16:17 schreef sheonlydreams86 het volgende:
[..]
Je snapt toch wat een t-test doet?
Patroonherkenning. Ik heb vaak te maken met hoe goed een bepaalde algoritme appels van peren (of iets anders) kan onderscheiden, om te zeggen "ik heb een goede algoritme bedacht" worden de resulaten dus met andere algoritmes vergeleken.quote:Op dinsdag 31 januari 2012 16:20 schreef Felagund het volgende:
[..]
Daar zijn de meningen ook over verdeeld.
In welk vakgebied zit jij eigenlijk, als ik vragen mag?
Misschien wil hij een effect size erbij (Cohen's d)?quote:Op dinsdag 31 januari 2012 15:14 schreef Bosbeetle het volgende:
Ik kreeg net een artikel terug, met 1 zinnetje van de reviewer, hij wil meer statistische onderbouwing van 2 figuren, en ik snap echt niet wat hij wil. Het is een positieve ten opzichte van een negatieve met meters verschil inclusief error bars en vermelding van wat die error bars inhouden met de hoeveelheid individuele proeven gemeld. Ik zou niet weten wat hij nog meer wil, dus ik ga vanavond maar even een student t-test erbij zetten maar dan nog is er niet iets echts toegevoegd...
quote:Op woensdag 1 februari 2012 10:53 schreef Bosbeetle het volgende:
Ik hoop dat de reviewer blij is met een sterretje en een p-waarde want die waren allemaal prima
Waarschijnlijk overbodig maar ik meld het even: Ik weet niet wat in jouw vakgebied (en dat van de reviewer) gebruikelijk is, maar bij ons moet er altijd bij staan wat voor toets er is gedaan en moet je ook de bijbehorende statistic met vrijheidsgraden melden. Bv t(5)=6.23, p<.01. Liefst nog met een effect size, bv. d. Dan kan die reviewer echt niks meer zeggen.quote:Op woensdag 1 februari 2012 10:53 schreef Bosbeetle het volgende:
Ik hoop dat de reviewer blij is met een sterretje en een p-waarde want die waren allemaal prima
Dat heb ik nog nooit gezien in een biochemisch artikel en ik ga geen dingen opschrijven die ik zelf ook niet helemaal snap. Dit soort statestiek is toch vaak niet gemaakt voor biologische proeven, daarbij zitten sowieso veel te veel aannames en onzekerheden in om zelfs de statestiek kloppend te krijgen.quote:Op woensdag 1 februari 2012 11:03 schreef tuxepux het volgende:
[..]
Waarschijnlijk overbodig maar ik meld het even: Ik weet niet wat in jouw vakgebied (en dat van de reviewer) gebruikelijk is, maar bij ons moet er altijd bij staan wat voor toets er is gedaan en moet je ook de bijbehorende statistic met vrijheidsgraden melden. Bv t(5)=6.23, p<.01. Liefst nog met een effect size, bv. d. Dan kan die reviewer echt niks meer zeggen.
Dat is natuurlijk ook niet zo, dat soort dingen moet je helemaal niet statistisch toetsen. Maar dingen als reactiesnelheid in verschillende condities kun je prima toetsen.quote:Op woensdag 1 februari 2012 11:06 schreef Bosbeetle het volgende:
Dat heb ik nog nooit gezien in een biochemisch artikel en ik ga geen dingen opschrijven die ik zelf ook niet helemaal snap. Dit soort statestiek is toch vaak niet gemaakt voor biologische proeven, daarbij zitten sowieso veel te veel aannames en onzekerheden in om zelfs de statestiek kloppend te krijgen.
Een beetje zoals die hierboven gemelde tekst met daarin het statement, de volgende ziekte komt niet voor in populatie en dan toch een x aantal mensen vinden en dan blijft dat statement waar... Daar kan mijn logische hoofd niet bij
Precies want ik heb geen null hypothese, mijn hypothese is juist dat de waarden wel verschillen. Wat ik trouwens nog het meest mis, is een goede manier om de kans te berekenen dat een hypothese klopt die je met ik pak hem beet 8 methodes hebt getoetst. Want volgensmij gaat die kans met elke andere methode die aantoont dat het klopt behoorlijk omhoog.quote:Op woensdag 1 februari 2012 11:17 schreef tuxepux het volgende:
[..]
Dat is natuurlijk ook niet zo, dat soort dingen moet je helemaal niet statistisch toetsen. Maar dingen als reactiesnelheid in verschillende condities kun je prima toetsen.
Het gekke aan deze vorm van statistiek is dat je berekent wat de kans is op jouw data gegeven de nulhypothese, en daaruit gaat infereren wat de kans is dat je nulhypothese klopt gegeven je data. De logica erachter is niet helemaal in orde..
Maar dat terzijde.
Dan is de nulhypothese toch dat de beide condities dezelfde verdeling (gemiddelde, variantie) hebben?quote:Op woensdag 1 februari 2012 11:22 schreef Bosbeetle het volgende:
[..]
Precies want ik heb geen null hypothese, mijn hypothese is juist dat de waarden wel verschillen. Wat ik trouwens nog het meest mis, is een goede manier om de kans te berekenen dat een hypothese klopt die je met ik pak hem beet 8 methodes hebt getoetst. Want volgensmij gaat die kans met elke andere methode die aantoont dat het klopt behoorlijk omhoog.
Je hebt altijd een nulhypothese, die probeer je te verwerpen om een verschil aan te tonen.quote:Op woensdag 1 februari 2012 11:22 schreef Bosbeetle het volgende:
[..]
Precies want ik heb geen null hypothese, mijn hypothese is juist dat de waarden wel verschillen. Wat ik trouwens nog het meest mis, is een goede manier om de kans te berekenen dat een hypothese klopt die je met ik pak hem beet 8 methodes hebt getoetst. Want volgensmij gaat die kans met elke andere methode die aantoont dat het klopt behoorlijk omhoog.
goed punt, ik spreek de taal duidelijk niet!quote:Op woensdag 1 februari 2012 11:36 schreef tuxepux het volgende:
[..]
De kans berekenen dat je hypothese klopt, kan trouwens niet.
Ook de biologie zou een extra slag kunnen maken door het beter begrijpen van het huidige arsenaal van statistische instrumenten en methoden om subtielere verschillen te kunnen beschrijven.Recent zijn de opleiding-curriculae ook al licht aangepast aan enkele universiteiten dacht ik gehoord te hebben.quote:Op woensdag 1 februari 2012 11:29 schreef Bosbeetle het volgende:
Maar iets zegt me dat ik statistisch gezien geen uitzondering ben onder biologen
Het is ook erg tegen-intuitief. Je kunt zelfs niet de kans berekenen dat je hypothese niet klopt, of de kans dat de nulhypothese klopt. Bijna iedereen trapt erin, behalve statistici en mensen die eerstejaars statistiek geven (ik behoor tot die tweede categorie) :-)quote:Op woensdag 1 februari 2012 11:54 schreef Bosbeetle het volgende:
goed punt, ik spreek de taal duidelijk niet!
Vast en zeker, alleen kampen we denk ik nogsteeds met een te grote variatie. De bio in de biochemie maakt vaak exacte meting onmogelijk, en daarom moeten we het vaak doen met trends.quote:Op woensdag 1 februari 2012 12:11 schreef Grumpey het volgende:
[..]
Ook de biologie zou een extra slag kunnen maken door het beter begrijpen van het huidige arsenaal van statistische instrumenten en methoden om subtielere verschillen te kunnen beschrijven.
Ook een probleem in de klimaatwetenschap. Vorig jaar een presentatie gevolgd precies hierover, aanleiding was een paper hoe significantietests worden misinterpreteerd in klimaatwetenschap. Pas vanaf toe begreep ik wat er echt met een significantietest wordt berekend.quote:Op woensdag 1 februari 2012 12:13 schreef tuxepux het volgende:
[..]
Het is ook erg tegen-intuitief. Je kunt zelfs niet de kans berekenen dat je hypothese niet klopt, of de kans dat de nulhypothese klopt. Bijna iedereen trapt erin, behalve statistici en mensen die eerstejaars statistiek geven (ik behoor tot die tweede categorie) :-)
als je er een heel klein woordje aan toevoegt wel ja: null.quote:Op zaterdag 11 februari 2012 10:33 schreef RobertoCarlos het volgende:
Even een simpel vraagje aan de statistiek-experts: klopt het nou dat een hypothese significant is als de kans dat deze hypothese waar is, verwaarloosbaar klein is?
Oftewel: de hypothese is significant als p<alpha (bijv. 0.05)?
yes, precies zo. Uuiteindelijk moet je gaan nadenken wat je test wanneer je een ptest doet. Wat je test is de kans (probability) dat er significante relatie tussen 2 variabels is in je sample, maar ook in de totale populatie. En daarmee verwerp je dus de nullhypothesis.quote:Op zaterdag 11 februari 2012 11:16 schreef RobertoCarlos het volgende:
Ik vraag het nog eens expliciet omdat ik steeds in de war raak door de term 'significant'. Als iets verwaarloosbaar is, is het voor mijn gevoel juist niet significant=niet belangrijk.
Moet ik het dan zo zien dat als de null-hypothese verwaarloosbaar is (dus p<alfa), dat dan de alternatieve hypothese (dus wat je wilt bewijzen) significant is?
Zo niet, hoe moet ik de term 'significant' dan plaatsen?
Zie 'significant' als het verschil tussen de groepen. Als dit verschil significant is ('groot' dus), wordt de nul hypothese dat er geen verschil is verworpen. Als dit verschil niet significant is, zal het verschil tussen groepen kunnen worden toegeschreven aan toevalligheden in plaats van aan een manipulatie in je experiment.quote:Op zaterdag 11 februari 2012 11:16 schreef RobertoCarlos het volgende:
Ik vraag het nog eens expliciet omdat ik steeds in de war raak door de term 'significant'. Als iets verwaarloosbaar is, is het voor mijn gevoel juist niet significant=niet belangrijk.
Moet ik het dan zo zien dat als de null-hypothese verwaarloosbaar is (dus p<alfa), dat dan de alternatieve hypothese (dus wat je wilt bewijzen) significant is?
Zo niet, hoe moet ik de term 'significant' dan plaatsen?
Thanks Jagärtrut en Opercquote:Op zaterdag 11 februari 2012 11:33 schreef Jagärtrut het volgende:
[..]
yes, precies zo. Uuiteindelijk moet je gaan nadenken wat je test wanneer je een ptest doet. Wat je test is de kans (probability) dat er significante relatie tussen 2 variabels is in je sample, maar ook in de totale populatie. En daarmee verwerp je dus de nullhypothesis.
Een goed boek vind ik is Kellstad and Whitten, 2009. The fundamentals of Political Science Research. Als je me je email adres pmt kan ik het je sturen.
Edit: Ik zie dat de vraag al beantwoord isquote:Op zaterdag 11 februari 2012 10:33 schreef RobertoCarlos het volgende:
Even een simpel vraagje aan de statistiek-experts: klopt het nou dat een hypothese significant is als de kans dat deze hypothese waar is, verwaarloosbaar klein is?
Oftewel: de hypothese is significant als p<alpha (bijv. 0.05)?
Dit is een hele abstracte vraag die niet wetenschappelijk op een goede manier te beantwoorden valt, omdat dit afhangt van je situatie en je onderzoek (dooddoener, ik weet het).quote:Op zaterdag 18 februari 2012 01:59 schreef oompaloompa het volgende:
qua verder cariere etc. Hoe veel maakt het uit of je je phd hebt gekregen van een ivy league vs een nederlandse phd met 1 jaar visiting scholar op ivy league uni?
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |