FOK!forum / Wetenschap & Technologie / Je eigen wetenschappelijk onderzoek
thijsdetweedewoensdag 1 juli 2009 @ 10:57
Naar aanleiding van 'de toekomst van WFL' discussie, leek het me wel aardig om een topic op te zetten waarin iedereen kan babbelen over zijn eigen onderzoek. Maar dan wel inhoudelijk. Vaak is het hardstikke leuk om wat meer te weten over hoe andere vakgebieden werken, maar hoe ga je die discussie aan op FOK?
Vaak vind ik het ook erg leuk om wat uit te leggen over mijn eigen werk, maar ik ga er geen topic over opzetten

Daarom deze topic: Waar gaat jouw Bachelor/Master/Projectmatig/AIO/.... onderzoek over? Wat zijn je doelen, uitdagingen, 'grote ontdekkingen', frustraties? Kan je het WFL publiek (nieuwsgierig, intelligent, maar weet niks van je eigen kleine vakgebied) uitleggen waar je mee bezig bent? Nou ja, zoiets dus.

Hoewel W&F natuurlijk alles omvat, lijkt het me voor de coherentie redelijk om (voorlopig) de amerikaanse interpretatie van Science te volgen: Natuurwetenschappen en Filosofie dus hier.
Sattyagrahawoensdag 1 juli 2009 @ 11:17
Ik moet volgend jaar aan mijn bachelor scriptie beginnen voor mijn studie Theologie. Ik heb alleen nog geen onderwerp. Misschien kunnen de WFL-fokkers mij daar wel bij helpen.
thijsdetweedewoensdag 1 juli 2009 @ 11:36
TS Begint.

Ik doe onderzoek naar wolken. Eerst als aio, nu als post-doc. Wolken zijn, zo simpel als ze lijken, de grootste onbekende in het klimaatsysteem, en dus moeten we ze beter begrijpen. Methodieken daartoe vallen in 2 categorieen: Metingen en computersimulaties. Nadeel van de eerste: Hoe te interpreteren. Nadeel van de tweede: Het hoeft niet waar te zijn. De oplossing die ik aanhang: Heel gedetailleerde simulaties, (Large Eddy simulaties), die een klein gebied redelijk betrouwbaar beschrijven en die je kan gebruiken voor begrips- en theorie vorming van de atmosfeer.

Mijn proefschrift ging over hoe een kleine wolk interacteert met zijn omgeving. Dat is belangrijk te weten, want de menging tussen wolk en omgeving is precies de manier hoe ze in klimaatmodellen ingebakken zitten. Belangrijke resultaten van het proefschrift laten zien dat tussen de wolk en zijn omgeving een bufferlaag inzit, die de wolk beschermt van zijn omgeving. Die laag wordt gecreëerd doordat bij menging lucht uit de wolk verdampt, afkoelt, en daardoor naar beneden zakt. Het hele proefschrift is hier te vinden.

Nu ga ik me bezig houden met dezelfde type simulaties, maar dan van diepe convectie; de grote wolken dus. Hoe groeien wolken eignelijk precies uit tot die grote systemen? Zeker boven land is er nog een hoop onduidelijk. Subtiliteiten hier zitten in de gigantische hoeveelheid interacties die mogelijk zijn. Voorbeelden: diepe convectie regent behoorlijk, en dat heeft onmiddellijk zijn invloed op de thermodynamica van de laag onder de wolken. En dus ook weer voor de oppervlakte fluxen, en die oppervlakte fluxen drijven de wolken weer aan. Dit type feedbacks wil ik de komende twee jaar gaan onderzoeken.
Haushoferwoensdag 1 juli 2009 @ 12:02
Ah, wolkjes, ik heb nog wel met mijn wolkengidsjes en fototoestel wolken lopen classificeren

Ik doe zelf onderzoek naar zwaartekracht in 3 dimensies. In 3 dimensies worden een boel problemen een stuk beter behandelbaar dan in 4 dimensies. Er zijn zelfs mensen die claimen dat ze een theorie van quantumzwaartekracht in 3 dimensies consistent kunnen opschrijven, en dat zou als speeltuin enorme inzichten kunnen geven voor het 4-dimensionale geval.

Op dit moment ben ik concreet bezig met supergravitatie. Supergravitatie is een vorm van supersymmetrie. Wat je bij symmetrieën vaak doet is globale symmetrieën (over de gehele ruimtetijd hetzelfde) promoveren naar lokale symmetrieën (in elk ruimtetijd punt anders, dus afhankelijk van je ruimtetijd coordinaten) om zo je symmetriegroep uit te breiden. In het standaardmodel genereer je zo de 3 bekende krachten. In het geval van supersymmetrie blijkt heel eigenaardig opeens zwaartekracht zo in je raamwerk te verschijnen.

We zijn nu bezig om een meer algemene supergravitatietheorie in 3 dimensies op te stellen, door te kijken naar analogieën met de andere 3 krachten (de zogenaamde Yang-Mills multipletten). Dit blijkt ons enorm veel rekenwerk te besparen.

Leuk topic
thijsdetweedewoensdag 1 juli 2009 @ 12:26
Welke 3 dimensies beschrijf je dan? 2x ruimte, 1x tijd, neem ik aan? Of maakt dat weer eens niet uit? Ben altijd voorstander van conceptuele versimpelingen die het begrijpen makkelijker maken. Volgens mijn beperkte kennis van quantum en ART zitten er een paar knijterharde paradoxen in quantumzwaartekracht. Vallen die er nou ineens uit in 1 dimensie minder, of heb je nog meer trucendozen open moeten trekken?

En mag ik de hele bende samenvatten dat jullie unificatiepoging (in 3D, weliswaar) neer komt op de zwaartekracht een tijds- en plaats afhankelijk karakter te geven? En if so, waar moet je het kreng dan een functie van laten zijn?
thijsdetweedewoensdag 1 juli 2009 @ 12:27
quote:
Op woensdag 1 juli 2009 12:02 schreef Haushofer het volgende:
Ah, wolkjes, ik heb nog wel met mijn wolkengidsjes en fototoestel wolken lopen classificeren
Het grootste nadeel van dit werk is dat je nooit vakantie hebt. Als ik vanaf het strand omhoog kijk zie ik toch die verdomde cumulus weer. Om maar te zwijgen over hoe ik zit te stuiteren op mijn vliegtuigstoel tijdens het stijgen en landen
Ali_Kannibaliwoensdag 1 juli 2009 @ 13:08
Ik heb voor mijn bachelorthesis de invloed van ouders en peers op middelengebruik van adolescenten onderzocht (literatuurstudie) (kinder & jeugdpsychologie).

En voor een andere opdracht of anonimiteit en boete invloed hebben op het overtreden van sociale normen. (sociale psychologie).

Of gold dit niet als Science?

[ Bericht 21% gewijzigd door Ali_Kannibali op 01-07-2009 13:15:56 ]
Haushoferwoensdag 1 juli 2009 @ 13:17
quote:
Op woensdag 1 juli 2009 12:26 schreef thijsdetweede het volgende:
Welke 3 dimensies beschrijf je dan? 2x ruimte, 1x tijd, neem ik aan? Of maakt dat weer eens niet uit? Ben altijd voorstander van conceptuele versimpelingen die het begrijpen makkelijker maken. Volgens mijn beperkte kennis van quantum en ART zitten er een paar knijterharde paradoxen in quantumzwaartekracht. Vallen die er nou ineens uit in 1 dimensie minder, of heb je nog meer trucendozen open moeten trekken?
2 ruimte, 1 tijd inderdaad; dit wordt vaak samengevat als (2+1). In 3 ruimtelijke dimensies zonder tijd zou alles statisch zijn, en dat is niet bijzonder spannend om te onderzoeken Het probleem bij een theorie van quantumzwaartekracht, is dat zo'n theorie vaak niet-renormalizeerbaar is. Dat betekent dat zaken oneindig worden. In het algemeen worden theorieën beter hanteerbaar in minder dimensies.

Overigens is het verhaal nog wat subtieler, aangezien conventionele algemene relativiteit in 3 dimensies niet zo spannend is; je hebt namelijk geen extra vrijheidsgraden voor zwaartekrachtsgolven, en dat maakt zwaartekracht een globaal verschijnsel. Je moet dus extra geometrische termen aan je theorie toevoegen om überhaupt zoiets als "gravitonen" te krijgen, want gravitonen zijn de quanta van zwaartekrachtsgolven.
quote:
En mag ik de hele bende samenvatten dat jullie unificatiepoging (in 3D, weliswaar) neer komt op de zwaartekracht een tijds- en plaats afhankelijk karakter te geven? En if so, waar moet je het kreng dan een functie van laten zijn?
Uhm...niet echt Bij transformaties heb je altijd een transformatieparameter. Als ik bijvoorbeeld een golffunctie wil roteren, dan is die parameter simpelweg een hoek. Nou kun je die hoek constant kiezen. Dit geeft in veel theorieën een symmetrie; de golffunctie is alleen maar bepaald op een constante rotatie na. Maar je kunt die hoek ook als functie van de ruimte- en tijdscoordinaten gaan zien. Dit zal in het algemeen geen symmetrie meer zijn. Maar je kunt wel eisen dat dit een symmetrie is, en kijken wat voor termen je moet toevoegen om de hele theorie invariant te houden onder zo'n variabele hoek.

In het standaardmodel blijkt dit de manier te zijn om krachten te introduceren, dus door je symmetriegroep uit te breiden.

Supersymmetrie is een symmetrie tussen bosonen en fermionen. Hierin zitten ook weer van die constante transformatieparameters, alleen is de structuur ietsje ingewikkelder (het zijn spinoren). De volgende stap is nu vrij voor de hand liggend: maak die parameters weer lokaal door ze te laten afhangen van de ruimte- en tijdscoordinaten, en kijk wat je theorie moet doen om invariant te blijven.

Het blijkt dat deze uitbreiding van je symmetriegroep een nieuwe symmetrie introduceert: translatie in de ruimte en tijd. Dit is precies de symmetriegroep van de algemene relativiteitstheorie, en dus kun je losjes zeggen dat door je supersymmetriegroep uit te breiden van globaal (constant over de gehele ruimtetijd) naar lokaal (mag per punt in de ruimtetijd varieren), je een nieuw veld nodig hebt wat precies je zwaartekracht beschrijft.

Een bijzonder elegant en krachtig mechanisme in de natuurkunde, dus
Haushoferwoensdag 1 juli 2009 @ 13:18
quote:
Op woensdag 1 juli 2009 12:27 schreef thijsdetweede het volgende:

[..]

Het grootste nadeel van dit werk is dat je nooit vakantie hebt. Als ik vanaf het strand omhoog kijk zie ik toch die verdomde cumulus weer. Om maar te zwijgen over hoe ik zit te stuiteren op mijn vliegtuigstoel tijdens het stijgen en landen
Ja, dat heb ik ook inderdaad Zit ik de persoon naast me uit te leggen wat voor wolken daar nou hangen, maar gek genoeg zijn ze nooit echt geïnteresseerd

Meteorologie was altijd een serieuze keuze voor me geweest; heb het altijd machtig interessant gevonden
ATuin-hekwoensdag 1 juli 2009 @ 14:26
Ey dat is nog eens een leuk topic Voor nu even een TVP, dan post ik morgen na mijn tentamen iets over autosegmentatie in MRI beelden. Dat was het onderwerp van mijn Bsc. thesis Ben ook nog bezig met een leuk project over de live detectie van catheters bij doorlichtings behandelingen.
Dunckiewoensdag 1 juli 2009 @ 20:36
Ha, je hebt het topic echt geopend. Leuk.
pfafwoensdag 1 juli 2009 @ 22:44
Interessant allemaal!

Thijs: worden bij ‘normale’ simulaties ook LES-simulaties gebruikt, of worden daar RANS-verwante modellen gebruikt?

Ik ben zelf afgestapt van het onderzoek en heb voor het grote geld gekozen, maar ik zal m'n afstudeeronderzoek eens samenvatten als ik meer tijd heb.
rapirapiwoensdag 1 juli 2009 @ 23:25
quote:
Op woensdag 1 juli 2009 10:57 schreef thijsdetweede het volgende:
Naar aanleiding van 'de toekomst van WFL' discussie, leek het me wel aardig om een topic op te zetten waarin iedereen kan babbelen over zijn eigen onderzoek. Maar dan wel inhoudelijk. Vaak is het hardstikke leuk om wat meer te weten over hoe andere vakgebieden werken, maar hoe ga je die discussie aan op FOK?
Vaak vind ik het ook erg leuk om wat uit te leggen over mijn eigen werk, maar ik ga er geen topic over opzetten

Daarom deze topic: Waar gaat jouw Bachelor/Master/Projectmatig/AIO/.... onderzoek over? Wat zijn je doelen, uitdagingen, 'grote ontdekkingen', frustraties? Kan je het WFL publiek (nieuwsgierig, intelligent, maar weet niks van je eigen kleine vakgebied) uitleggen waar je mee bezig bent? Nou ja, zoiets dus.

Hoewel W&F natuurlijk alles omvat, lijkt het me voor de coherentie redelijk om (voorlopig) de amerikaanse interpretatie van Science te volgen: Natuurwetenschappen en Filosofie dus hier.
Vind het al zeer bezwaarlijk om inhoudelijk over mijn eigen wetenschappelijke onderzoeken te praten met 'buitenstaanders'. Vooral 'waarschijnlijk' met leken, maar omdat aan een forum of internet toe te vertrouwen. Mij niet gezien. Ik pas. Mede ook omdat het totaal geen toegevoegde waarde biedt aan een dergelijk onderzoek zelf. Een begeleider/deskundige of iemand die bepaalde betrokkenheid toont kan van toegevoegde waarde zijn. Maar dit...beetje tricky
thijsdetweedewoensdag 1 juli 2009 @ 23:27
Hangt ervan af wat je onder normale simulaties verstaat. De klimaat en weersvoorspellingen (die modellen zijn slechts in detail verschillend van elkaar) zijn RANS-achtig; ze hebben een resolutie van typisch 10-100km, afhankelijk van wat je wil en of je Japanner bent. Dus wordt alle turbulentie sowieso gemodelleerd. Interessant is overigens nu wel dat de zeer hogeresolutiemodellen zo langzamerhand in de buurt van de 1 of een paar km kruipen.
Dat lijkt mooi, en dat is het ook, maar dat zorgt ook voor een paar stevige problemen. Zo is het wolkenmodel in de klimaatmodel behoorlijk gebaseerd op de statistische aanname dat er veel wolken in je gridboxje passen. Op hoge resolutie loop je daar de soep in, en kan het zelfs voorkomen dat je de grootste wolken begint op te lossen, met als effect dat je ze gaat dubbel tellen. Oplossingen voor dit soort effecten zijn een hot topic; de meest voor de hand liggende methode lijkt te zitten in stochastische parameterisaties.
Ada.woensdag 1 juli 2009 @ 23:30
TVP, interessant!
thijsdetweedewoensdag 1 juli 2009 @ 23:35
quote:
Op woensdag 1 juli 2009 23:25 schreef rapirapi het volgende:

[..]

Vind het al zeer bezwaarlijk om inhoudelijk over mijn eigen wetenschappelijke onderzoeken te praten met 'buitenstaanders'. Vooral 'waarschijnlijk' met leken, maar omdat aan een forum of internet toe te vertrouwen. Mij niet gezien. Ik pas. Mede ook omdat het totaal geen toegevoegde waarde biedt aan een dergelijk onderzoek zelf. Een begeleider/deskundige of iemand die bepaalde betrokkenheid toont kan van toegevoegde waarde zijn. Maar dit...beetje tricky
Tricky?? De enige reden die ik kan verzinnen is dat je op deze manier misschien wat van je anonimiteit opgeeft. Maar verder.... Ik vind het als wetenschapper bij de kerntaken horen om zo veel mogelijk uit te dragen wat voor onderzoek je doet. Daar betaalt de gemeenschap je immers voor! Bovendien vereist uitleg aan 'leken' (yeah right, alsof Haus, Pfaf, Hekje en de rest stupide zijn) dat je je onderwerp echt goed moet begrijpen. En stukken daarbuiten ook. Verder is het gewoon leuk. Als ze me de gang laten gaan, vertel ik ook op verjaardagsfeestjes over mijn werk hoor!

Vind jij mensen als Robbert Dijkgraaf of Vincent Icke, topwetenschappers die regelmatig hun passie uitdragen in de media, dan ook raar en onbezonnen?
ATuin-hekdonderdag 2 juli 2009 @ 13:24
quote:
Op woensdag 1 juli 2009 14:26 schreef ATuin-hek het volgende:
Ey dat is nog eens een leuk topic Voor nu even een TVP, dan post ik morgen na mijn tentamen iets over autosegmentatie in MRI beelden. Dat was het onderwerp van mijn Bsc. thesis Ben ook nog bezig met een leuk project over de live detectie van catheters bij doorlichtings behandelingen.
Nou bij deze dan

Ik ben dus voor mijn Bsc. opdracht bezig geweest met de automatisch detectie en segmentatie van Multiple Sclerosis laesies in multi-modale MRI data. Ik heb dit gedaan in het kader van The Grand Segmentation Challenge II. Dit was een internationale wedstrijd met de afsluiting bij het MICCAI (Medical Image Computing and Computer Assisted INtervention) congres in New York.
De reden dat aandacht wordt besteed aan dit veld is dat tegenwoordig alle segmentaties met de hand worden gedaan. Een medische specialist moet 1 a 2 uur de tijd nemen om plaatje voor plaatje de complete MRI scan door te zoeken en de laesies aan te geven. Los van het tijdrovende karakter geeft dit als extra probleem dat twee verschillende experts het lang niet altijd eens zijn over wat wel of geen laesie is. Bepaalde aspecten van MS klassificatie en dus ook medicatie worden mede bepaald door het aantal laesies en hoeveel er in een bepaalde periode bij komen. Het is dus niet handig om bij de eerste scan een te trigger happy expert te hebben en bij de tweede een te voorzichtige, of vice versa.
Wat we uiteindelijk gedaan hebben is per voxel proberen zo veel mogelijk data te verzamelen. We hadden daar 5 verschillende scans voor beschikbaar, plus een set trainingsdata met handmatige segmentaties. De scans bestonden uit twee reguliere modaliteiten (T1 en T2), twee DTI modaliteiten (FA en MD) en een FLAIR scan.Natuurlijk de intensiteiten in de verschillende scans zelf, maar ook informatie als gradienten, lokale gemiddelden, lokale histogrammen etc. Als extra bron van informatie hebben we een brain atlas tegen de scans geregistreerd, om zo gerichter in de witte materie (waar bijna alle MS laesies zitten) te kunnen zoeken. Al deze data (225 velden) hebben we voor elke voxel in een feature vector gepropt. Omdat zelfs op een stevige computer met Matlab het wat vervelend rekenen is in 225 dimensies (duurt allemaal zo lang) hebben we een priciple component analyses toegepast om het allemaal wat makkelijker te verwerken te maken. Met behulp van de handmatige segmentatie zijn twee regionen gedefineerd in een 6-dimensionale ruimte.
Dit is ook gedaan voor de scans die we moesten segmenteren als onderdeel van de wedstrijd. Elke voxel van de onbekende scan werd in deze 6-dimensionale ruimte geplaatst en gesegmenteerd naar hand van de nabijheid van de twee regionen. Degene waar hij het dichtst bij lang werd zijn label. Aan het einde is nog een kleine filter stap toegevoegt om wat false positive minilaesies op te ruimen.
Dit alles heeft ons een kleine publicatie opgelevert vanwege het meedoen, met uiteindelijk een negende plaats in het eindklassement
Van de 30 oorspronkkelijke deelnemers hebben maar 9 teams alles tot aan de workshop doorgezet, waar wij dus laatste van waren

De paper: http://www.insight-journal.org/browse/publication/604
Niet echt boeiend tijdschrift, maar toch leuk voor een Bsc. opdracht

Voor een tweetal vakken ben ik nu bezig met een grote opdracht waarbij ik een particle filter opzet om een real time katheter detectie te realiseren voor gebruik bij bepaalde operaties waar doorlichting gebruikt wordt. Maar daarover later meer, want moet zo eerst maar eens dat tentamen gaan maken

Oh en over uitleg aan leken... ik snap niet waarom dat een probleem zou moeten zijn. Als mensen geintresseerd zijn in wat je doet is dat toch leuk? Het is ook nog eens een mooie oefening voor je eigen begrip om het aan anderen uit te leggen.
pfafdonderdag 2 juli 2009 @ 17:56
quote:
Op woensdag 1 juli 2009 23:27 schreef thijsdetweede het volgende:
Hangt ervan af wat je onder normale simulaties verstaat. De klimaat en weersvoorspellingen (die modellen zijn slechts in detail verschillend van elkaar) zijn RANS-achtig; ze hebben een resolutie van typisch 10-100km, afhankelijk van wat je wil en of je Japanner bent. Dus wordt alle turbulentie sowieso gemodelleerd. Interessant is overigens nu wel dat de zeer hogeresolutiemodellen zo langzamerhand in de buurt van de 1 of een paar km kruipen.
Dat lijkt mooi, en dat is het ook, maar dat zorgt ook voor een paar stevige problemen. Zo is het wolkenmodel in de klimaatmodel behoorlijk gebaseerd op de statistische aanname dat er veel wolken in je gridboxje passen. Op hoge resolutie loop je daar de soep in, en kan het zelfs voorkomen dat je de grootste wolken begint op te lossen, met als effect dat je ze gaat dubbel tellen. Oplossingen voor dit soort effecten zijn een hot topic; de meest voor de hand liggende methode lijkt te zitten in stochastische parameterisaties.
Met ‘gewone’ simulaties bedoelde ik inderdaad GFS-achtige weermodellen.

Wel typisch dat het fijner worden van je grid in de meteorologie een nadeel kan zijn. Dat heb ik nog nooit in een ander vakgebied gehoord.

Met stochastische parameterisaties bedoel je dat wolken kunnen ontstaan of verdwijnen door kansrekening in combinatie met bijvoorbeeld luchtvochtheid, dampspanningen en druk? Zo wordt in ieder geval het ontstaan en verdwijnen van waterdruppels in ‘mijn’ vakgebied gemodelleerd. Zoals condensatie in supersonische stromingen of het ontstaan van luchtbelletjes in hydrodynamische systemen (cavitatie).
rapirapidonderdag 2 juli 2009 @ 18:48
quote:
Op woensdag 1 juli 2009 23:35 schreef thijsdetweede het volgende:

[..]

Tricky?? De enige reden die ik kan verzinnen is dat je op deze manier misschien wat van je anonimiteit opgeeft. Maar verder.... Ik vind het als wetenschapper bij de kerntaken horen om zo veel mogelijk uit te dragen wat voor onderzoek je doet. Daar betaalt de gemeenschap je immers voor! Bovendien vereist uitleg aan 'leken' (yeah right, alsof Haus, Pfaf, Hekje en de rest stupide zijn) dat je je onderwerp echt goed moet begrijpen. En stukken daarbuiten ook. Verder is het gewoon leuk. Als ze me de gang laten gaan, vertel ik ook op verjaardagsfeestjes over mijn werk hoor!

Vind jij mensen als Robbert Dijkgraaf of Vincent Icke, topwetenschappers die regelmatig hun passie uitdragen in de media, dan ook raar en onbezonnen?
Oh Thijs dat is niet wat ik allemaal beweer. Maar goed, ik vind wat ik vind. Jij wat jij vind, daarvoor hoeven we niet in discussie te gaan.Toch? Succes!
tredonderdag 2 juli 2009 @ 21:18
Geinig topic

Ik werk als promovendus bij het Nederlands Kanker Instituut in een Chemisch Biologielab en doe onderzoek naar MHC (Major Histocompatibility Complex) moleculen. Deze binden aan stukjes viraal- of tumoreiwit en laten deze vervolgens aan het celoppervlak zien aan zogenaamde T cellen, als die dit herkennen als lichaamsvreemd dan doden ze de geinfecteerde cel. In het geval van autoimmuunziekten (oa diabetes) of host vs graft (afstoten van donororganen) herkent het lichaam per ongeluk lichaamseigen eiwitten en doodt vervolgens eigen cellen.

Wij proberen de stukjes virus/tumoreiwit, peptiden genaamd, te verbeteren voor betere herkenning door T cellen dmv allerhande chemische trucs. We werken hieraan met scheikundigen en moleculair biologen, zelf ben ik het laatste. Hiermee hopen we uiteindelijk richting vaccinatiestrategieen voor kanker of virussen te gaan en/of een betere behandeling voor autoimmuunziekten.
klesszondag 5 juli 2009 @ 22:30
De evolutie van membraaneiwitten.

Er is een idee over hoe in de tijd van monomeer naar een dimeer met eventueel omgekeerde orientatie wat daarna die 2 domeinen weer aanelkaar zijn gaan zitten. Ik ben onderzoek aan het doen aan een tussenvorm.

Ik ben naar dual topology eitwitten gaan kijken met dus bijde orrientatie mogenlijkheden.
Hierin kwam een mooie tussenvorm voor in de databasen die wezen op dat een deel toch 1 orientatie zou moeten hebben. Er zijn interesante uitkomsten maar onderhand moest ik stoppen met onderzoek doen maar ik moet nog het verslag schrijven. Vooralsnog lijkt er een 1ste/2de auteurschap in te zitten als iemand anders de andere resterende experimenten gaat doen. Danwel ik zelf mocht ik later daar een PhD gaan doen.
EricTdinsdag 7 juli 2009 @ 14:18
leuk topic
thabitvrijdag 31 juli 2009 @ 17:39
quote:
Op woensdag 1 juli 2009 10:57 schreef thijsdetweede het volgende:
Naar aanleiding van 'de toekomst van WFL' discussie, leek het me wel aardig om een topic op te zetten waarin iedereen kan babbelen over zijn eigen onderzoek. Maar dan wel inhoudelijk. Vaak is het hardstikke leuk om wat meer te weten over hoe andere vakgebieden werken, maar hoe ga je die discussie aan op FOK?
Vaak vind ik het ook erg leuk om wat uit te leggen over mijn eigen werk, maar ik ga er geen topic over opzetten

Daarom deze topic: Waar gaat jouw Bachelor/Master/Projectmatig/AIO/.... onderzoek over? Wat zijn je doelen, uitdagingen, 'grote ontdekkingen', frustraties? Kan je het WFL publiek (nieuwsgierig, intelligent, maar weet niks van je eigen kleine vakgebied) uitleggen waar je mee bezig bent? Nou ja, zoiets dus.

Hoewel W&F natuurlijk alles omvat, lijkt het me voor de coherentie redelijk om (voorlopig) de amerikaanse interpretatie van Science te volgen: Natuurwetenschappen en Filosofie dus hier.
He wat jammer, ik had hier graag wat willen posten.
Wackyduckvrijdag 31 juli 2009 @ 20:15
quote:
Op vrijdag 31 juli 2009 17:39 schreef thabit het volgende:

[..]

He wat jammer, ik had hier graag wat willen posten.
Als je je niet aan zijn vertaling, maar aan science houdt, mag dat toch gewoon.
pfafvrijdag 31 juli 2009 @ 20:56
quote:
Op vrijdag 31 juli 2009 17:39 schreef thabit het volgende:

[..]

He wat jammer, ik had hier graag wat willen posten.
Namens Thijs versoepel ik de regels, zodat de Wiskunde er ook binnen gaat vallen.
thijsdetweedevrijdag 31 juli 2009 @ 21:55
Dank pfaf voor het ingrijpen... thabit is natuurlijk extreem bijzonder welkom hier
Shivovrijdag 31 juli 2009 @ 22:10
Ik werk aan cancer genomics. In een van de laatste publicaties waar ik bij betrokken was staan alle details uitgelegd: Nature artikel.

Het komt er op neer dat we heel veel moleculaire data van tumoren verzamelen en daar patroon herkenning en statistiek op los laten, om te ontdekken wat kanker veroorzaakt, hoe we het kunnen herkennen en eventueel wat er aan zouden kunnen doen.

[ Bericht 0% gewijzigd door Shivo op 31-07-2009 23:26:37 ]
Bankfurtvrijdag 31 juli 2009 @ 23:23
Het gedrag van stikstofgas onder hoge druk > 10 bar en onder een temperatuur van 150 Kelvin in een botterhamzakje.

Leuk onderzoek.
ATuin-hekvrijdag 31 juli 2009 @ 23:29
quote:
Op vrijdag 31 juli 2009 23:23 schreef Bankfurt het volgende:
Het gedrag van stikstofgas onder hoge druk > 10 bar en onder een temperatuur van 150 Kelvin in een botterhamzakje.

Leuk onderzoek.
Kan een boterhamzakje zoveel hebben?
thabitvrijdag 31 juli 2009 @ 23:31
Ik werk aan modulaire vormen en Galoisrepresentaties, een onderwerp uit de getaltheorie. Het bewijs van de Laatste Stelling van Fermat valt eigenlijk helemaal binnen dit onderwerp en is ook een van de belangrijke mijlpalen op dit gebied.

De zuiver theoretische kant van dit onderwerp wordt al meer dan 40 jaar door de beste wiskundigen ter wereld intensief onderzocht. Zelf werk ik vooral aan de algoritmiek rond dit onderwerp, d.w.z. hoe je kunt rekenen met modulaire vormen en Galoisrepresentaties en probeer ik theorie met berekeningen te combineren.

Een voorbeeld van waar ik mee bezig ben is de Ramanujan tau-functie. Dit is de functie die je krijgt door het oneindige product
D(q) = q * (1-q)24 * (1-q2)24 * (1-q3)24 * ...
uit te werken en daarvan de coefficienten te bekijken:
D(q) = tau(1)q + tau(2)q2 + tau(3)q3 + ... = q - 24q2 + 252q3 + ... .
Op het eerste gezicht lijkt het een wat willekeurig gedefinieerde functie, maar de grap is dat D(q) een zogenoemde modulaire vorm definieert en dit impliceert allerlei diepgaande getaltheoretische eigenschappen van tau.

Een vermoeden van Lehmer poneert dat tau(n) nooit gelijk is aan 0. Voorlopig is er geen enkel zicht op een bewijs voor dit vermoeden, maar het is een leuke uitdaging om het te verifieren voor n tot aan een zo groot mogelijke grens. Het wereldrecord op dat gebied staat momenteel op mijn naam: de kleinste waarde van n waarvoor niet bekend is of tau(n) gelijk is aan 0 is n = 22798241520242687999. Ik wil in elk geval proberen dit record nog verder te verbreken, en dat uiteraard niet door zoveel mogelijk CPU-kracht ertegenaan te gooien, maar door slimme algoritmen ontwikkelen.
keesjeisliefwoensdag 5 augustus 2009 @ 20:06
Nog een wiskundige hier. Mijn onderzoek valt voornamelijk onder 'optimal stopping', een specifieke tak van stochastische 'control problems'. In het simpelste geval zijn de ingrediënten een stochastisch proces X en een uitbetalingsfunctie f.

Een stochastisch proces is feitelijk een afbeelding X van [0,T] x Ω naar R (kunnen natuurlijk ook algemenere ruimten zijn) onder bepaalde technische meetbaarheidseigenschappen. Voor elke ω uit Ω is t -> Xt(ω) dus een afbeelding van [0,T] naar R, een pad van het proces, terwijl voor elke t uit [0,T] de afbeelding ω -> Xt(ω) een stochast is. Dus een stochastisch proces kan zowel gezien worden als een collectie stochasten (Xt)t ∈ [0,T] als als een verzameling paden (t -> Xt(ω))ω ∈ Ω. Een stochastisch proces kun je dus ook zien als een stochast die als waarden (bepaalde klassen van) functies van [0,T] naar R heeft (de paden).

De theoretisch interessante aspecten even buiten beschouwing gelaten, hebben zulke processen veel toepassingen. Typisch kun je hierbij denken aan een model van een bepaald fenomeen dat zich in de tijd voorbeweegt en wiens bewegingen niet-deterministisch zijn, zoals binnen de financiële wereld (aandelenkoersen e.d.), binnen de biologie (voortplantingssystemen e.d.) etc. etc. Veel bestudeerde subklassen van stochastische processen zijn bijv. Markovprocessen (processen die een bepaalde onafhankelijkheidsstructuur hebben, die zich laat beschrijven als 'op elk tijdstip s geldt dat de evolutie van het pad in de toekomst, dus (Xt)t ∈ (s,T], (stochastisch) onafhankelijk is van het verleden vóor s, dus van (Xt)t ∈ [0,s)') en meer specifiek Lévyprocessen, die onafhankelijke en gelijk verdeelde incrementen hebben. Hieronder valt bijv. ook de Brownse beweging, waarschijnlijk het meest bekende voorbeeld van een stochastisch proces.

In zijn meest simpele vorm bestaat een optimal stopping problem uit:

(*): maximaliseer de verwachte uitbetaling E[f(Xσ)] over stoptijden σ.

Stoptijden zijn afbeeldingen van Ω naar [0,T] (dus, bij elk pad van het proces kies je een bepaalde tijd om te stoppen) waarbij de beslissing om te stoppen 'alleen van het verleden' afhangt. Je kunt dus niet 'in de toekomst' kijken (anders zou dit probleem natuurlijk ook helemaal niet interessant zijn, dan neem je simpelweg het padsgewijze maximum). Bijv., de afbeelding σ met &sigma(ω) gelijk aan 1 als X2(ω)>0 en &sigma(ω)=T anders is géén stoptijd, omdat wel of niet stoppen op t=1 afhangt van de (toekomstige) toestand X2. De afbeedling σ met &sigma(ω) gelijk aan 2 als X2(ω)>0 en &sigma(ω)=T anders is bijv. wel een stoptijd.

Er bestaat een algemene theorie voor problemen als (*), die je vertelt dat in het geval dat X een Markovproces is een optimale stoptijd gegeven wordt door inf{t >= 0 | Xt ∈ S}, waar S de 'optimal stopping region' is, een deelverzameling van [0,T] x R. Het oplossen van (*) komt dan neer op het karakteriseren van S en het bepalen van de uitkomst van (*).

Basisvoorbeeld uit financiële wiskunde: als f(t,x) = e-r t (K-ex)+ en X een Brownse beweging met drift, dan is (*) de waarde van een Amerikaanse putoptie in het beroemde Black & Scholes model. In het geval dat T=∞ kun je (*) expliciet oplossen en vind je dat S=(-∞,x*) voor een zekere x*. Dat wil zeggen, het is optimaal om te stoppen als het pad van X voor het eerst onder het niveau x* terechtkomt.Bij het bewijs worden veelal martingaaltechnieken, 'stochastic calculus' etc. gebruikt. In het geval dat T<∞ kun je dat niet meer doen en moet je in principe terugvallen op numerieke algoritmes.

Problemen als (*) worden veel interessanter (en moeilijker) als je Lévyprocessen X inzet. Deze heeft i.h.a. paden met sprongen (discontinuiteiten), in tegenstelling tot Brownse beweging. Er is niet zelden behoorlijk diepe theorie nodig om iets zinnigs te kunnen zeggen over (*). Een verdere ontwikkeling is om (*) uit te breiden naar een nulsomspel voor twee spelers, zogenaamde Dynkin games (hierover gaat mijn proefschrift grotendeels).

(Ik moet erbij zeggen dat ik een beetje uitgekeken begin te raken op optimal stopping problems en aanverwanten, en aan het kijken ben naar andere gebieden.)
Siddarthadonderdag 6 augustus 2009 @ 12:55
TVP
Zeer interessant!
Shivodonderdag 6 augustus 2009 @ 14:35
Voor de wiskundigen: wat is de maatschappelijke relevantie van dat soort onderzoek? Niet kritisch bedoeld, maar ik weet dat gewoon niet.
keesjeisliefdonderdag 6 augustus 2009 @ 15:45
quote:
Op donderdag 6 augustus 2009 14:35 schreef Shivo het volgende:
Voor de wiskundigen: wat is de maatschappelijke relevantie van dat soort onderzoek? Niet kritisch bedoeld, maar ik weet dat gewoon niet.
Wat mij betreft, zoals uit mijn verhaaltje blijkt heeft 'optimal stopping' de nodige toepassingen, in verschillende gebieden (financiele industrie, biologie etc.). In de financiele induiistrie bijvoorbeeld wordt ontzettend veel gebruik gemaakt van wiskundige modellen (en optimal stopping), sterker nog, aan een meerderheid (!) van alle transacties op de openbare financiele markten komt geen menselijke beslissing meer te pas, dat is geheel computer (dus model-)gestuurd (zie bijv. http://en.wikipedia.org/wiki/Algorithmic_trading). (Ik claim natuurlijk niet dat dit noodzakelijkerwijs een goed ding is).

(Behalve dat wil ik ook graag nog even aanstippen dat het erg vaak zo is dat wiskundige concepten eerst vanuit intrinsieke interesse worden ontwikkeld, en dat toepassingen pas (veel) later komen bovendrijven. (Standaard voorbeeld in dit verband zijn priemgetallen die al vele eeuwen door getaltheoretici etc. worden bestudeerd, en de rol die ze de laatste decennia opeens in encryptie zijn gaan spelen). Dus zelfs als je van mening bent dat wiskunde vooral nuttig is vanwege zijn toepassingen, dan nog is zuivere wiskunde hard nodig.)
koffiegastdonderdag 6 augustus 2009 @ 15:52
Ik heb voor me bachelorthesis 2 onderwerpen behandeld:

Requirements for Strong AI, dus wat maakt iets tot het hebben van Strong AI. Het eerste probleem was dat Strong AI meerdere definities krijg toebedeeld dus ik heb daarvoor een gezamenlijke benodigdheid beargumenteerd: intelligentie. Vervolgens heel wat over intelligentie geschreven en beschreven hoe het te vergelijken zou kunnen zijn en wat getest moet worden en hoe. Het komt er op neer dat om intelligentie te vergelijken je aan 2 dingen moet voldoen: met absolute zekerheid weten wat de doel van het proces (of object, of zelfs persoon) moet weten en als tweede je moet bij beide tests alle input hetzelfde hebben, anders kan een verschil in de input een andere uitkomst bieden, kortom je kunt dan eigenlijk niet eens vergelijken want je test simpelweg op iets anders (bv. herken de appel is niet hetzelfde als herken de banaan).

De reden dat je met absolute zekerheid moet weten dat door beide processen hetzelfde doel wordt gebruikt om het op te lossen kun je zo zien: je hebt een schaakbord, speler A voorspelt dat speler B move X maakt op grond van zijn vermoeden dat het doel van B is om het spel te winnen. Maar speler B maakt een andere move, speler A heeft dan 3 mogelijkheden: speler B is dommer (maar als je intelligenter bent zou je dat moeten zien), speler B is intelligenter (en speler A zal het niet begrijpen) of speler B heeft een ander doel voor ogen bijvoorbeeld de meeste stukjes te winnen (in zo'n geval wordt een pion slaan een grotere prioriteit dan je tegenstander schaakmat te zetten).

Een andere requirement for Strong AI is definen wat mind is, daarvoor heb ik het chinese room argument er bijgehaald en hoe we iets als een mind niet met zekerheid vast kunnen stellen (bij andere mensen nemen we het simpelweg aan) en dat een mogelijk betere toepassing is ervanuit te gaan als het als mind lijkt te werken ipv dat het een mind is (dus computers kunnen worden vergeleken). Ik laat het hier even bij.


Het andere onderwerp was the Symbol Grounding Problem. Een vrij belangrijk probleem in de AI en computaties. Waar het op neer komt is dat de verbinding tussen betekenis en het symbool (bv een woord "boom") niet vanzelfsprekend is en al helemaal niet in een geval van computers. Belangrijke punten in dit onderzoek is dat het zelf kan leren te begrijpen wat deze betekenis en hoe deze verbonden kan worden met symbolen. Op zo'n manier dat het voor de computer zelf goed te gebruiken is en erop kan voortbouwen.

De normale symbol systems (zoals je doorgaanse PC) doet niet anders dan simpele handelingen uitvoeren en symbolen op het beeldscherm projecteren. In dit geval snapt de PC totaal niet wat het doet, toch kunnen PCs prima worden gebruikt voor allerlei problemen op te lossen. De reden dat dit werkt is omdat de gebruiker van de PC wel snapt waar de symbolen voor staan.

Dan heb je nog een connectionism approach die als neural networks zeg maar via training ervoor zorgt dat een input (plaatje van een boom bv) wordt verbonden met het symbool (dus het woord "boom"). Het probleem bij deze aanpak is dat de pc in dit geval nog niet snapt wat je kunt doen met een symbool en is het erg vatbaar om een symbolen systeem te worden doordat de mens meestal besluit welke symbolen met welke input worden verbonden (dus supervised learning). Met gevolg dat de PC nog steeds niet kan voortbouwen op de dingen die het heeft geleerd. Er is nog veel meer, maar ik laat het hierbij
keesjeisliefdonderdag 6 augustus 2009 @ 16:01
quote:
Op donderdag 6 augustus 2009 14:35 schreef Shivo het volgende:
Voor de wiskundigen: wat is de maatschappelijke relevantie van dat soort onderzoek? Niet kritisch bedoeld, maar ik weet dat gewoon niet.
En, zou je als je zin hebt toch nog eens in lekentaal ongeveer uiteen kunnen zetten wat het doel en grotere perspectief van jouw onderzoek is? Ik heb even gekeken naar het artikel waar je naar linkte, maar kon er niet zo snel tabak van maken (en had eerlijk gezegd niet de tijd om er eens rustig voor te gaan zitten).
thabitdonderdag 6 augustus 2009 @ 16:45
quote:
Op donderdag 6 augustus 2009 14:35 schreef Shivo het volgende:
Voor de wiskundigen: wat is de maatschappelijke relevantie van dat soort onderzoek? Niet kritisch bedoeld, maar ik weet dat gewoon niet.
Ach, het houdt je van de straat.
Lyrebirdvrijdag 7 augustus 2009 @ 11:30
Mijn onderzoek richt zich op het in beeld brengen van hele kleine veranderingen in het menselijk nevlies. Dit is belangrijk om oogziekten als maculaire degeneratie en glaucoom in een vroeg stadium te ontdekken. Het afgelopen jaar hebben we 3-dimensionale plaatjes van het netvlies gepubliceerd, met een resolutie van 3 x 3 x 3 micrometer. Daarmee kun je kegeltjes in 3D laten zien. Het apparaat dat we daarvoor gebouwd hebben, heeft zo'n half miljoen dollar gekost en kan op maar een klein deel van de patienten worden gebruikt. Ik werk nu aan een vereenvoudiging van het apparaat, waarmee het netvlies van een significant groter deel van de patientenpopulatie in beeld kan worden gebracht.

Daarnaast doe ik fundamenteel glaucoomonderzoek. Niet erg praktisch, maar wel interessant. Hiervoor meet ik aan de zenuwlaag (axonen) die bovenop het netvlies liggen. Glaucoom zorgt ervoor dat die axonen verdwijnen. Voorheen dacht men dat in een gezond oog de axonen qua dichtheid evenredig verdeeld waren over het netvlies. Al eerder lieten we zien dat dit niet zo is, en dat de concentratie zenuwmateriaal rondom de oogzenuw (blinde vlek) een factor 2 kan verschillen. Lagere dichtheid links en rechts, hogere dichtheid boven en onder de oogzenuw. Maar nu weten we dat de dichtheid nabij het centrum van je gezichtsveld (waar je mee leest) 50% hoger is dan nabij de oogzenuw.

We hebben nog helemaal niets aan deze informatie, maar toch heb ik me daar al 8 jaar mee zoet kunnen houden. Zoals Thabit schrijft, het houdt je van de straat.
ATuin-hekvrijdag 7 augustus 2009 @ 13:22
quote:
Op vrijdag 7 augustus 2009 11:30 schreef Lyrebird het volgende:
Mijn onderzoek richt zich op het in beeld brengen van hele kleine veranderingen in het menselijk nevlies. Dit is belangrijk om oogziekten als maculaire degeneratie en glaucoom in een vroeg stadium te ontdekken. Het afgelopen jaar hebben we 3-dimensionale plaatjes van het netvlies gepubliceerd, met een resolutie van 3 x 3 x 3 micrometer. Daarmee kun je kegeltjes in 3D laten zien. Het apparaat dat we daarvoor gebouwd hebben, heeft zo'n half miljoen dollar gekost en kan op maar een klein deel van de patienten worden gebruikt. Ik werk nu aan een vereenvoudiging van het apparaat, waarmee het netvlies van een significant groter deel van de patientenpopulatie in beeld kan worden gebracht.

Daarnaast doe ik fundamenteel glaucoomonderzoek. Niet erg praktisch, maar wel interessant. Hiervoor meet ik aan de zenuwlaag (axonen) die bovenop het netvlies liggen. Glaucoom zorgt ervoor dat die axonen verdwijnen. Voorheen dacht men dat in een gezond oog de axonen qua dichtheid evenredig verdeeld waren over het netvlies. Al eerder lieten we zien dat dit niet zo is, en dat de concentratie zenuwmateriaal rondom de oogzenuw (blinde vlek) een factor 2 kan verschillen. Lagere dichtheid links en rechts, hogere dichtheid boven en onder de oogzenuw. Maar nu weten we dat de dichtheid nabij het centrum van je gezichtsveld (waar je mee leest) 50% hoger is dan nabij de oogzenuw.

We hebben nog helemaal niets aan deze informatie, maar toch heb ik me daar al 8 jaar mee zoet kunnen houden. Zoals Thabit schrijft, het houdt je van de straat.
Klinkt interessant Maak je toevallig gebruik van OCT technologiie?
speknekvrijdag 7 augustus 2009 @ 13:28
Toptopic. Ik denk nog steeds dat het beter is als een aantal mensen een eigen topic aanmaken, aangezien er nu een hoop dingen door elkaar gaan lopen, en het is natuurlijk ook leuk om plaatjes of grafiekjes van je onderzoek te posten (aan de andere kant, word je dan ook wel erg traceerbaar natuurlijk ).

Zodra ik meer tijd heb ga ik lezen en mijn verschillende onderzoeken posten.
Lyrebirdvrijdag 7 augustus 2009 @ 13:32
quote:
Op vrijdag 7 augustus 2009 13:22 schreef ATuin-hek het volgende:

[..]

Klinkt interessant Maak je toevallig gebruik van OCT technologiie?
100% raakgeschoten!

Enne, wat Speknek hierboven beknipoogd.

[ Bericht 2% gewijzigd door Lyrebird op 07-08-2009 13:52:41 ]
DrParsifaldinsdag 11 augustus 2009 @ 08:42
Ha leuk, ik werk als postdoc wiskunde (kansrekening) aan epidemiologische modellen. Ik heb onder andere het voorrecht aan percolatie theorie te werken, wat m.i. een van de meest elegante modellen uit de kansrekening is. (De standaard vraag is: als je op een oneindig ruitjespapier de lijntjes onafhankelijk van elkaar zwart maakt met kans p, kan er dan een oneindig lang zwart pad ontstaan en hoe hangt de kans hierop van p af?)

Ik werk vooral aan speelgoed modellen voor de verspreiding van epidemieen op sociale en seksuele netwerken.
De vragen waar ik dan naar kijk zijn of een epidemie groot kan worden wat de kans op een grote uitbraak is en welk deel van de populatie bij zo'n grote uitbraak besmet zal worden (of de verwachting van deze proportie).

Verder doe ik tegenwoordig een klein beetje evolutie modellering en verdiep ik me in Wright-Fisher evolutie en Kingman coalescence met uitbreidingen van deze modellen waarbij recombinatie meegenomen wordt.
Matthijs-dinsdag 11 augustus 2009 @ 19:10
quote:
Op dinsdag 11 augustus 2009 08:42 schreef DrParsifal het volgende:
Ha leuk, ik werk als postdoc wiskunde (kansrekening) aan epidemiologische modellen. Ik heb onder andere het voorrecht aan percolatie theorie te werken, wat m.i. een van de meest elegante modellen uit de kansrekening is. (De standaard vraag is: als je op een oneindig ruitjespapier de lijntjes onafhankelijk van elkaar zwart maakt met kans p, kan er dan een oneindig lang zwart pad ontstaan en hoe hangt de kans hierop van p af?)
Hoe moet ik dit eigenlijk voor me zien, ben je hier dan ook echt 8 uur per dag mee bezig? Bedoel ik niet mee dat het oninteressant is (integendeel), maar dat ik me moeilijk voor kan stellen dat het mogelijk is.
klessdinsdag 11 augustus 2009 @ 19:16
verhaal van membraaneiwiten moet nog geschreven worden maar de experimenten zijn klaar.

ondertussen ben ik alweer een tijdje bezig met "synthetische biologie" in de vorm van het maken van:

"Heavy metal scavengers with a vertical gas drive."

Voor een ontwerp modeleer wedstrijd met wetwork genaamd iGEM
Linkje naar het team http://2009.igem.org/Team:Groningen
Amsterdam en Delft hebben ook teams
Wat we aan de kennis van de wereld toe willen voegen zijn een proof of principle voor het reinigen van slip en of water. Diversie biobricks aan maken. En promoter sterktes beschrijven.
DrParsifaldinsdag 11 augustus 2009 @ 20:38
quote:
Op dinsdag 11 augustus 2009 19:10 schreef Matthijs- het volgende:

[..]

Hoe moet ik dit eigenlijk voor me zien, ben je hier dan ook echt 8 uur per dag mee bezig? Bedoel ik niet mee dat het oninteressant is (integendeel), maar dat ik me moeilijk voor kan stellen dat het mogelijk is.
Deze vraag is ondertussen wel opgelost, al heeft dat 22 jaar geduurd voor de belangrijkste stelling bewezen was. Echter uitbreidingen naar andere netwerken (die meer op sociale netwerken lijken) en de invloed van contacten over grotere afstand zijn nog niet helemaal begrepen en met dat soort uitbreidingen ben ik wel acht uur per dag bezig ja. De vragen kunnen dan vertaald worden naar wat zijn goede targetgroepen om de verspreiding van Chlamydia in Nederland binnen de perken te houden enz. Al zijn de wiskundige vragen op zich voor mij al interessant genoeg.
Felagunddonderdag 11 augustus 2011 @ 16:41
Kickje,

Ik ben benieuwd hoe iedereen inmiddels is gevorderd in het onderzoek? Of inmiddels uit frustratie gestopt?

Ik ben zelf pas met een PhD in Duitsland begonnen in de meteorologie, zal vanavond wel een proberen de doelen van mijn (toekomstige) onderzoek samen te vatten. Het onderzoek van thijs lijkt mij zeer interessant, heeft ook raakvlakken met mijn onderzoek wat als onderwerp extreem neerslag heeft. Al benader ik het meer uit een dynamische meteorologische manier.
keesjeisliefvrijdag 12 augustus 2011 @ 13:34
Er is ook een topic speciaal voor promovendi: Promoveren #5: Met (on-)gegronde Amerikavrees.
JackRetardmaandag 15 augustus 2011 @ 17:39
Als het hier toch gekickt is:

Ik werk aan simulatiemethoden om het gedrag van kleine (+/- 2000) verzamelingen ionen in een ionenval te onderzoeken. De bedoeling is dat de plaatjes die mijn simulatie uitspuugt vergeleken worden met beelden die een camera in de opstelling maakt, zodat daaruit onder andere de temperatuur van het ensemble bepaald kan worden. Dat wordt dan weer gebruikt om heel precies bepaalde overgangen van HD+-ionen te meten, omdat het kan ;)