Huh, ik vind het gebruik van het woord neuroscience in gigantische over-rating voor deze amateurpsychologische "onderzoeken".quote:Op woensdag 14 september 2011 09:22 schreef ATuin-hek het volgende:
[..]
Oh dat zekerIk kijk op nu.nl nog wel eens naar dat soort berichten. Best interessant (en bedroevend) om te zien hoe vaak ze er naast zitten met neuroscience onderzoeken...
quote:Op woensdag 14 september 2011 09:31 schreef Oud_student het volgende:
[..]
Huh, ik vind het gebruik van het woord neuroscience een gigantische over-rating voor deze amateurpsychologische "onderzoeken".
Beter lezenquote:Op woensdag 14 september 2011 09:31 schreef Oud_student het volgende:
[..]
Huh, ik vind het gebruik van het woord neuroscience in gigantische over-rating voor deze amateurpsychologische "onderzoeken".
Nou ja de interpretatie van de non-specialistische media is vaak al helemaal beroerd, maar ik doelde meer op het feit dat onderzoekers en instituten nog wel eens de neiging hebben om de conclusies in persberichten iets stelliger te formuleren.quote:Op woensdag 14 september 2011 09:22 schreef ATuin-hek het volgende:
[..]
Oh dat zekerIk kijk op nu.nl nog wel eens naar dat soort berichten. Best interessant (en bedroevend) om te zien hoe vaak ze er naast zitten met neuroscience onderzoeken...
bronquote:Brain imaging studies report more positive findings than their numbers can support. This is fishy.
While the authorities are distracted by mass disorder, we can do some statistics. You’ll have seen plenty of news stories telling you that one part of the brain is bigger, or smaller, in people with a particular mental health problem, or even a specific job. These are generally based on real, published scientific research. But how reliable are the studies?
One way of critiquing a piece of research is to read the academic paper itself, in detail, looking for flaws. But that might not be enough, if some sources of bias might exist outside the paper, in the wider system of science.
By now you’ll be familiar with publication bias: the phenomenon where studies with boring negative results are less likely to get written up, and less likely to get published. Normally you can estimate this using a tool like, say, a funnel plot. The principle behind these is simple: big expensive landmark studies are harder to brush under the carpet, but small studies can disappear more easily. So you split your studies into “big ones”, and “small ones”: if the small studies, averaged out together, give a more positive result than the big studies, then maybe some small negative studies have gone missing in action.
Sadly this doesn’t work brain scan studies, because there’s not enough variation in size. So Professor John Ioannidis, a godlike figure in the field of “research about research”, took a different approach. He collected a large representative sample of these anatomical studies, counted up how many positive results they got, and how positive those results were, and then compared this to how many similarly positive results you could plausibly have expected to detect, simply from the sizes of the studies.
This can be derived from something called the “power calculation”. Everyone knows that bigger is better when collecting data for a piece of research: the more you have, the greater your ability to detect a modest effect. What people often miss is that the size of sample needed also changes with the size of the effect you’re trying to detect: detecting a true 0.2% difference in the size of the hippocampus between two groups, say, would need more subjects than a study aiming to detect a huge 25% difference.
By working backwards and sideways from these kinds of calculations, Ioannidis was able to to determine, from the sizes of effects measured, and from the numbers of people scanned, how many positive findings could plausibly have been expected, and compare that to how many were actually reported. The answer was stark: even being generous, there were twice as many positive findings as you could realistically have expected from the amount of data reported on.
What could explain this? Inadequate blinding is an issue: a fair amount of judgement goes into measuring the size of a brain area on a scan, so wishful nudges can creep in. And boring old publication bias is another: maybe whole negative papers aren’t getting published.
But a final, more interesting explanation is also possible. In these kinds of studies, it’s possible that many brain areas are measured, to see if they’re bigger or smaller, and maybe, then, only the positive findings get reported, within each study.
There is one final line of evidence to support this. In studies of depression, for example, 31 studies report data on the hippocampus, 6 on the putamen, and 7 on the prefrontal cortex. Maybe, perhaps, more investigators really did focus solely on the hippocampus. But given how easy it is to measure the size of another area – once you’ve recruited and scanned your participants – it’s also possible that people are measuring these other areas, finding no change, and not bothering to report that negative result in their paper, alongside the positive ones they’ve found.
There’s only one way to prevent this: researchers would have to publicly pre-register what areas they plan to measure, before they begin, and report all findings. In the absence of that process, the entire field might be distorted, by a form of exaggeration that is – we trust – honest and unconscious, but more interestingly, collective and disseminated.
Oh dat zeker hoorquote:Op woensdag 14 september 2011 13:06 schreef Monolith het volgende:
[..]
Nou ja de interpretatie van de non-specialistische media is vaak al helemaal beroerd, maar ik doelde meer op het feit dat onderzoekers en instituten nog wel eens de neiging hebben om de conclusies in persberichten iets stelliger te formuleren.
Op neurowetenschappelijke publicaties valt ook nog wel weer het een en ander af te dingen overigens.
[..]
bron
Watquote:
Je bent fantastisch Piet.quote:Op woensdag 9 januari 2013 16:37 schreef Pietverdriet het volgende:
Leuk om dit terug te lezen, dat ik als een van de eerste riep dat dit flut was, wat een van de grootste wetenschapsfraude zaken bleek
Dat hoeft iig niet onderzocht te worden.quote:
Nee, maar een peer-review zou niet misstaan.quote:Op woensdag 9 januari 2013 16:46 schreef Pietverdriet het volgende:
[..]
Dat hoeft iig niet onderzocht te worden.
Ik review graag peren, helaas zijn de meesten niet rijpquote:Op woensdag 9 januari 2013 16:49 schreef waht het volgende:
[..]
Nee, maar een peer-review zou niet misstaan.
quote:Op woensdag 9 januari 2013 16:49 schreef waht het volgende:
[..]
Nee, maar een peer-review zou niet misstaan.
Dat betekent dat je op die dag naast dit topic nóg een keer de juiste tijd aanwees.quote:Op woensdag 9 januari 2013 16:37 schreef Pietverdriet het volgende:
Leuk om dit terug te lezen, dat ik als een van de eerste riep dat dit flut was, wat een van de grootste wetenschapsfraude zaken bleek
Vet van mij.quote:Op woensdag 14 september 2011 21:43 schreef finsdefis het volgende:
[..]
Watdat moet wel de meest achterlijke conclusie ooit zijn. Weet niet wie 'm getrokken heeft, maar die verdient wel een enorme faalprijs.
Dit zal dan ook wel een verspilling zijn, aangezien het een reactie is op een verspilde bijdrage, maar muggenzifterij hebben we inderdaad niets aan. Het is een algemeen geaccepteerde manier van retoriek (of dit nu goede of slechte is maakt niet uit) om een bepaald onderdeel van je mening extra kracht bij te zetten door hyperbolen te gebruiken. Dat je niet verder kijkt dan een letterlijke lezing is ook enigszins dommig en kortzichtigquote:Op donderdag 10 januari 2013 02:06 schreef Kees22 het volgende:
[..]
Vet van mij.
Het is verspilling van een bijdrage, maar het gebruik van ooit in deze zin is incorrect en dom.
Het gebruik van de overtreffende trap plus ever ooit houdt mij al bezig sinds het eerste gebruik in ongeveer de jaren '70 van de vorige eeuw.quote:Op donderdag 10 januari 2013 15:48 schreef finsdefis het volgende:
[..]
Dit zal dan ook wel een verspilling zijn, aangezien het een reactie is op een verspilde bijdrage, maar muggenzifterij hebben we inderdaad niets aan. Het is een algemeen geaccepteerde manier van retoriek (of dit nu goede of slechte is maakt niet uit) om een bepaald onderdeel van je mening extra kracht bij te zetten door hyperbolen te gebruiken. Dat je niet verder kijkt dan een letterlijke lezing is ook enigszins dommig en kortzichtig
Zeker maar omdat de term wetenschap nog altijd iets magisch heeft,wordt het altijd aangehaald alsmede flink gesubsidieerd door de overheid en wordt elk rapport als "de waarheid"gezien.quote:Op vrijdag 26 augustus 2011 00:31 schreef Pietverdriet het volgende:
[..]
Ooit zo een triest vooringenomen onderzoek resultaat gelezen?
Triest dit. En dat onderzoeksgeld had ook besteed kunnen worden aan wiegedood, dementie, taaislijmziekte, malaria, etc etc
En mag je er vooral geen kritiek hebben op de mores. Mensen die anders denken over het broeikas effect worden verketterd bijvoorbeeld, een echt wetenschappelijk debat is daar onmogelijkquote:Op zaterdag 12 januari 2013 15:05 schreef Iwanius het volgende:
[..]
Zeker maar omdat de term wetenschap nog altijd iets magisch heeft,wordt het altijd aangehaald alsmede flink gesubsidieerd door de overheid en wordt elk rapport als "de waarheid"gezien.
Ja, daar klagen mensen als Dembski en Duesberg ook over.quote:Op zaterdag 12 januari 2013 16:05 schreef Pietverdriet het volgende:
[..]
En mag je er vooral geen kritiek hebben op de mores. Mensen die anders denken over het broeikas effect worden verketterd bijvoorbeeld, een echt wetenschappelijk debat is daar onmogelijk
Goeien.quote:Op vrijdag 18 januari 2013 21:54 schreef Schonedal het volgende:
Dit hele topic doet mij denken aan die kannibaal die zo graag vegetariėr wilde worden.
Maar aan de andere kant wilde hij toch ook niet zijn stamtradities loslaten.
Kun jij je een heftiger tweestrijd en zielenood voorstellen waarin die arme kannibaal terecht was gekomen?
Na lang en diep nadenken kwam hij er uit, hij at voortaan alleen nog maar vegetariėrs.
Dat is nu ook precies de reden waarom ik vlees eet van vegetarische dieren, zoals vegetarisch koeienvlees.
dit is denk ik een groot onderbelicht effect voor veels te veel onderzoeken.quote:Op woensdag 14 september 2011 13:06 schreef Monolith het volgende:
[..]
Nou ja de interpretatie van de non-specialistische media is vaak al helemaal beroerd, maar ik doelde meer op het feit dat onderzoekers en instituten nog wel eens de neiging hebben om de conclusies in persberichten iets stelliger te formuleren.
Op neurowetenschappelijke publicaties valt ook nog wel weer het een en ander af te dingen overigens.
[..]
bron
Een beetje late reactie maar ik begrijp wat je bedoelt maar eerlijkheidshalve kijk ik nergens meer van op te meer je anno 2013 (12 ook wel) teveel voorbeelden ziet en hoort waar elke redelijkheid en vaak ook eerlijkheid/onafhankelijkheid ver te zoeken is.quote:Op vrijdag 26 augustus 2011 00:31 schreef Pietverdriet het volgende:
Ooit zo een triest vooringenomen onderzoek resultaat gelezen?
Triest dit. En dat onderzoeksgeld had ook besteed kunnen worden aan wiegedood, dementie, taaislijmziekte, malaria, etc etc
|
|
| Forum Opties | |
|---|---|
| Forumhop: | |
| Hop naar: | |