quote:
Dit is afhankelijk van de taak die je de computer laat doen.
Een GPU haalt zijn kracht uit parallellisatie, een taak in zoveel mogelijk kleine stukjes verdelen en deze tegelijk laten uitvoeren. Kan dat, is een GPU sneller dan een CPU. Kan dat niet, of is de berekening te complex, wint de CPU.
Voorbeeld 1: Stel je hebt een scene in een spel waarbij de speler door een mistig park heenloopt. Het toevoegen van die mist is iets wat een grafische kaart goed kan, want de hoeveelheid mist is te berekenen. Elk object in deze scene heeft drie coördinaten, die vertellen waar het object in de drie dimensionale ruimte staat. Een bankje staat op 50 pixels links, 100 pixels van de onderkant en 200 pixels de diepte in. voor elke pixel apart de hoeveelheid mist berekenen is makkelijk, want de hoeveelheid mist op plaats x is niet afhankelijk van de hoeveelheid mist er een pixel ernaast of van de mist aan de andere kant van het scherm.
Voorbeeld 2. Een autofabrikant laat het nieuwe ontwerp virtueel tegen een betonblok rijden met 50 kilometer per uur. Het berekenen van de vervormingen is door een GPU in te zetten amper te versnellen, omdat vervorming van de bumper van invloed is op de vervorming van de radiator, die weer van invloed is op de positie van het motorblok en alle drie hebben weer invloed op de vervorming van de carrosserie. Pas als je berekend hebt of de radiator vervormt en of verplaatst en bij hoeveel, kan je gaan berekenen of de vervorming/verplaatsing van invloed is op de carrosserie. Je kan die taken niet of amper in parallel uitvoeren, omdat de berekeningen afhankelijk zijn van elkaar.( Ik heb het hier over het specifiek doorrekenen van het computermodel, niet het renderen van een filmpje achteraf die visualiseert hoe de auto vervormt.)
Dus het werk bepaald of, en bij hoeveel, een GPU sneller is dan een CPU.