#ANONIEM | donderdag 20 maart 2014 @ 10:20 |
De conclusie van de Tweakers geheugentestZijn we het er dan eindelijk over eens dat een veelvoud van 8GB geen donder meer uitmaakt? | |
slashdotter3 | donderdag 20 maart 2014 @ 10:25 |
Die nieuwe 8.1 spring update zorgt voor nog minder ram gebruik | |
RemcoDelft | donderdag 20 maart 2014 @ 10:29 |
Ik had 6 jaar geleden 4 GB ram, en dat heb ik nu nog steeds. Ik verbaas me er meer over dat standaardsystemen nu nog steeds slechts 4 GB hebben, en ondertussen vrijwel iedereen nog steeds met een swapfile loopt te rotzooien. Dat heb ik vorige eeuw al opgegeven. | |
mvdejong | donderdag 20 maart 2014 @ 10:34 |
Voor de meeste gebruikers is 4 GByte eigenlijk wel zat. Voor zware gebruikers is 8 GByte meestal voldoende, zelfs als je heel veel open hebt staan, want je gebruikt het toch niet allemaal tegelijk, dus het is niet zo erg als er eens wat uit fysiek geheugen geswapped wordt. Alleen mensen die speciale pakketten gebruiken, zoals CAD/CAM, en dan nog eens idioot grote datasets hanteren, zouden behoefte kunnen hebben aan meer. Als speciale reden om meer dan 8 nodig te hebben : ik draai op mijn bedrijfs-laptop W7, maar heb daaronder via Oracle VirtualBox nog een aantal virtuele Linux- en Solaris-systeempjes geinstalleerd (en een virtueel DOS-machientje). Mijn beide virtuele Solaris-systeempjes vormen een cluster, waarin weer virtuele Solaris-systeempjes via het Sun zone-mechanisme draaien. Als ik dat opstart, dan zou ik eigenlijk wel meer geheugen in mijn laptop willen, zodat ik meer geheugen kan reserveren voor dit test-cluster. | |
trovey | donderdag 20 maart 2014 @ 10:48 |
Ik doe het nog steeds met 1, werkt ook nog steeds. ![]() | |
ADQ | donderdag 20 maart 2014 @ 10:50 |
Link dan ook even naar het artikel..... http://tweakers.net/revie(...)rs-geheugentest.html | |
Tijn | donderdag 20 maart 2014 @ 10:50 |
De link staat in de eerste regel van de openingspost ![]() | |
Fred | donderdag 20 maart 2014 @ 10:51 |
En 35 jaar geleden werd beweerd dat 640kB voldoende was voor elk aardbewoner... | |
Tijn | donderdag 20 maart 2014 @ 10:52 |
Ja precies, het is natuurlijk een kwestie van tijd voordat meer geheugen wél iets toevoegt. Zeker wanneer je een computer koopt waarvan het interne geheugen moeilijk of niet uitbreidbaar is, zou ik er als het even kan voor kiezen om voor zoveel mogelijk te gaan. | |
RemcoDelft | donderdag 20 maart 2014 @ 10:58 |
Ik heb het idee dat de snelheid van vooruitgang afneemt: processorsnelheid, werkgeheugen, opslagcapaciteit e.d. nemen allemaal minder snel toe dan 10 jaar geleden. Veel laptops zijn het afgelopen half jaar zelfs duurder geworden. Ik zie ook twee oorzaken: voor veel applicaties is meer simpelweg niet nodig, en veel mensen stappen over op (tragere) tablets of telefoons om media te consumeren. | |
Tijn | donderdag 20 maart 2014 @ 11:01 |
Ontwikkelingen vinden nu plaats op andere terreinen, zoals energiezuinigheid. Qua performance / Watt zijn er wel degelijk enorme stappen gezet de laatste jaren. Maar voor bureaucomputers is dat allemaal niet zo relevant. Ik gebruik nog steeds naar volle tevredenheid m'n 7 jaar oude Core 2 Duo 2.4 GHz machine. Het was 10 jaar geleden echt ondenkbaar om met een computer van 7 jaar oud te werken, laat staan de nieuwste software zonder haperen te draaien. | |
ADQ | donderdag 20 maart 2014 @ 11:02 |
Oeps! Overheen gelezen. Sorry! | |
KomtTijd... | donderdag 20 maart 2014 @ 12:06 |
4GB ram raakt toch wel vrij snel vol met toegewezen geheugen. Dan doe je er verstandig aan swapping aan te zetten, anders valt er niets meer te cachen. | |
netolk | donderdag 20 maart 2014 @ 13:53 |
Jep, de grote werkgeheugen rage is wel weer voorbij Alleen nuttig als je dikke servers op je pc hebt draaien oid | |
Riparius | donderdag 20 maart 2014 @ 14:05 |
Dat is toch gek, want de algemene perceptie is dat Moore's law nog steeds opgaat. Dat is een andere kwestie (en iets waar Moore's law dan ook niet over gaat). Prijsstellingen worden door een heleboel zaken beïnvloed. Prijzen van bijvoorbeeld RAM fluctueren sterk, en na de overstromingen in Thailand ontstond er een (al dan niet kunstmatig in stand gehouden) wereldwijde schaarste aan harddisks, met gigantische prijsstijgingen tot gevolg. En vergeet niet dat overheidsmaatregelen ook een grote invloed hebben op prijsstellingen. Denk daarbij aan invoerheffingen en aan het recent nog opgeschroefde BTW percentage. De grote vraag is natuurlijk hoe de hele informaticatechnologie zich verder gaat ontwikkelen. Daar is m.i. niet echt veel over te zeggen, behalve dat Moore's law (die dertig jaar geleden al dood werd verklaard) echt nog wel een poosje op zal blijven gaan. | |
Dubbeldrank | donderdag 20 maart 2014 @ 15:14 |
Dat is niet waar, dat werd niet beweerd. Daarnaast zijn computers tegenwoordig dermate snel dat regelmatig upgraden ook niet meer de grooste noodzaak is om bij te blijven, eind vorig jaar heb ik een upgrade gedaan na vijf jaar en ben meteen voor 16GB gegaan. Je weet nooit wat de vorderingen zijn over een paar jaar. | |
bluuf | donderdag 20 maart 2014 @ 20:38 |
Voor de meeste gebruikers is het ook onzin om veel ram in een machine te proppen. Ik heb al bij menig bedrijf gezien dat men maar meer geheugen in een machine blijft proppen terwijl de HDD en de CPU de reden zijn van de mindere performance. Zelf heb ik in mijn werklaptop 8GB zitten omdat ik vaak met virtuele machines wijzigingen in GPOs moet testen (8GB is voldoende om 2 virtuele Windows 7s naast elkaar te kunnen draaien). Mijn prive desktop heb ik overigens wel moeten voorzien van 20GB geheugen, dit ivm mijn virtuele machines waar ik mee oefen voor mijn Microsoft certificaten. | |
ACT-F | donderdag 20 maart 2014 @ 21:19 |
Ik draai nu ruim 3 jaar op 6GB geheugen, maar ik zit met enige regelmaat tegen de grenzen. Op het moment van schrijven zit ik net boven de 4GB aan geheugengebruik. De doorsneegebruiker zal er genoeg aan hebben, maar ik heb tig applicaties en services draaien. Zo nu en dan draai ik meerdere zware grafische applicaties of heb ik de behoefte aan een VM. Upgrade naar 12GB of meer zit hier wel een keer aan te komen. | |
RemcoDelft | donderdag 20 maart 2014 @ 21:56 |
Ik verbaas me ook dat (budget)mainboards helemaal niet veel geheugen aankunnen. Mijn desktop (6.5 jaar oud dus) kan max. 4 GB aan. Nu kunnen veel laptops alsnog max. 4, 8 of 16 GB aan. Daar is nauwelijks vooruitgang in gekomen, behalve dan dat het maximum benutten veel goedkoper is geworden. Ik herinner me de tijd dat je zo 1000 gulden kwijt was om de helft van je geheugenbanken te vullen. Nu zit-ie voor weinig geld vol, je kan er niet eens meer bijprikken. | |
Bart | donderdag 20 maart 2014 @ 22:19 |
8GB is inderdaad genoeg voor 95% van de gebruikers. | |
CaptainSushi | vrijdag 21 maart 2014 @ 10:17 |
Ik heb 32gb ram dus ik zit voorlopig nog wel goed | |
#ANONIEM | vrijdag 21 maart 2014 @ 11:28 |
Maar zit je dan niet tegen de grens van je max aan van wat je computer moeiteloos kan verwerken? [ Bericht 1% gewijzigd door #ANONIEM op 21-03-2014 11:28:58 ] | |
Revolution-NL | vrijdag 21 maart 2014 @ 12:53 |
Met Windows 8.1 is de foodprint op systeem van het OS en dus ook het gegeheugen gebruik maar afgenomen. Mijn ASRock ION 330 HTPC met Atom draaide met Windows 7 niet heel rap, met 8.1 loopt het systeem vele malen sneller. Je kan vaak beter investeren in een SSD disk dan in extra geheugen. Disk IO mathers ![]() | |
raulbouli | vrijdag 21 maart 2014 @ 13:57 |
Ik heb 16GB aan intern geheugen, maar ik VM-ware ook veel en dan is het wel fijn dat je nog wat overhoud om te kunnen gamen. | |
trovey | vrijdag 21 maart 2014 @ 13:58 |
Ik gebruik niet echt zware programma's dus weinig last van, voor surfen, mailen e.d. werkt het nog steeds uitstekend. Overigens wil ik nu wat meer nu ik de overstap moet maken van XP naar 7 , kan ik weer jaren voort. ![]() | |
HalveZware | vrijdag 21 maart 2014 @ 14:04 |
zit momenteel in de fase richting een macbook, en die gaat netjes 16GB geheugen krijgen. mijn huidige machine met zijn 8gb (Dell XPS L521x voor de liefhebber, kopen? ) is voor nu nog snel genoeg maar gezien ik erg specifieke software draai en een macbook niet te upgraden valt is 16GB de engie serieuze optie. Gamers die met meer als 8GB aankomen lach ik overigens kostenlijk uit, want eigenlijk gebruiken alleen video-editors en Virtuele machines ( i use both ) meer dan 4 cores en meer dan 8GB geheugen. Vind het ook een beetje een raar artikel van Tweakers, want zover als ik gezien heb houden ze nergens rekening met het verschil tussen de snelheid van dingen uit ram halen en dingen van disk moeten trekken? | |
RemcoDelft | vrijdag 21 maart 2014 @ 14:23 |
Dat is wat kort door de bocht. Maak voor de gein eens een 50.000x50.000x100 matrix in Octave (Matlab) voor een simulatie... En daar zit ook meteen het probleem: als je serieus geheugen nodig hebt, maakt het niet uit of je 4 of 64 GB hebt, 't is toch te weinig. | |
Tijn | vrijdag 21 maart 2014 @ 14:25 |
Ook daarom is investeren in een SSD slimmer: dat maakt de kosten van swappen een stuk minder heftig. | |
HalveZware | vrijdag 21 maart 2014 @ 14:25 |
Ja wiskunde en andere moeilijke dingen, maar spelletjes gaan iig nooit goed met resources om. ik nam video-editing en virtuele machines even als voorbeeld, maar er zijn nog wel een paar andere dingen te bedenken inderdaad | |
KomtTijd... | vrijdag 21 maart 2014 @ 14:40 |
Er zijn idd meer voorbeelden maar dit is wel de essentie. Sommige mensen doen geheugenintensieve taken, dan geldt inderdaad meer == beter. Maar die mensen zullen over het algemeen ook precies weten waar ze het voor nodig hebben. Voor "normaal" desktopgebruik en een beetje gamen is 8GB op dit moment zat, en ik denk niet dat dat heel snel zal veranderen. De grote ontwikkeling op softwaregebied zit op dit moment juist in de mobiele devices die het met relatief weinig geheugen moeten doen. Op de desktop zal eerst een software-revolutie moeten plaatsvinden voordat die 8GB aan de krappe kant wordt, en dat zie ik zo een twee drie nog niet gebeuren. | |
FreezePop | vrijdag 21 maart 2014 @ 14:55 |
3 jaar DDR2 of DDR3? | |
ACT-F | vrijdag 21 maart 2014 @ 15:05 |
3 jaar DDR3 met triple channel ![]() ![]() | |
Catch22- | zondag 23 maart 2014 @ 18:13 |
Als je geen vm's draait of videorendering doet, is 8gb idd genoeg. | |
Fleischmeister | zondag 23 maart 2014 @ 19:34 |
M'n notebook heeft 8 GB en ook met een paar eenvoudige VM's is dat goed genoeg. Servers hebben allemaal 16 GB of meer, de file servers als het even kan minimaal 32 GB i.v.m. de cache van veelgebruikte locaties op het bestandssysteem. Maar zoals gezegd is dat gespecialiseerd werk waar je het RAM speciaal voor aanschaft, en serverborden kunnen ook iets meer RAM hebben. | |
Aaargh! | maandag 24 maart 2014 @ 09:58 |
Tja. logische uitslag. Meer geheugen heb je pas wat aan als je er ook daadwerkelijk gebruik van maakt, op een synthetische benchmark zal het geen verschil maken. Of het wat toevoegt is totaal afhankelijk van welke toepassingen je draait. Pas op het moment dat je meer geheugen actief gebruikt dan wat er in je machine zit zal de performance heel snel in elkaar donderen. | |
BurnaBoy | maandag 24 maart 2014 @ 15:13 |
Ik zit nu op 8, en soms heb ik daar te kort aan maar dat komt omdat ik altijd tig browservensters open heb staan plus een game geminimaliseerd. Volgende machine gaat minimaal 16 in, maar ik wacht even tot DDR4 denk ik. Opzich zou ik wel dingen af kunnen sluiten maar waarom zou ik, machine kan het allemaal prima aan. | |
Loohcs | maandag 24 maart 2014 @ 15:32 |
Minimum voor XP is (was?, weet niet of SP nog verschil maakt) 64 MB geheugen, dus 1GB is 16x meer dan nodig ![]() Wel raar dat ze 1 taak tegelijkertijd meten. Multitasken is het toch helemaal tegenwoordig: Video renderen, tegelijk surfen, muziek afspelen, downloaden, files converteren en evt nog een virusscanner die op de achtergrond draait. | |
trovey | maandag 24 maart 2014 @ 19:24 |
Geen idee wat de minimumeisen waren, zal inderdaad wel zijn opgelopen met de SP's. Overigens net een nieuwe gevonden voor Windows 7(met legitieme versie van 7 erop), 4 GB, kan ik weer jaren vooruit. ![]() ![]() | |
mvdejong | maandag 24 maart 2014 @ 21:46 |
De minimale eisen van MS liggen gauw op 1/4 van wat nodig was om "normaal" te kunnen werken. XP was bruikbaar met 256 MByte-512 MByte in de kale versie. SP2 maakte daar 512 MByte-1 GByte van, terwijl je >1 GByte nodig had om met SP3 redelijk te kunnen werken met wat applicaties. Ik heb heel was XP-machientjes met een P4-processor en 512 MByte geheugen, die onwerkbaar waren geworden een levens-verlenging gegeven door ze naar het maximum van 2 GByte uit te breiden. En ze werkten nog lang en gelukkig. | |
Riparius | maandag 24 maart 2014 @ 22:03 |
Microsoft zelf blijft stug volhouden dat Windows XP bruikbaar is vanaf 64 MB (MiB) RAM. De laatste revisie van dit Knowledge Base artikel dateert van mei 2013, dus je mag ervan uitgaan dat ze daar ook XP SP3 mee bedoelen. | |
Piger | maandag 24 maart 2014 @ 22:15 |
Ik heb het gehele artikel niet gelezen en heb er niet veel verstand van maar doelen ze niet meer op de snelheidwinst die je behaald door gebruik van geheugen met een grotere capaciteit?? Dat je geen 16gig nodig hebt, als je piek altijd op 8gig ligt is natuurlijk logisch, maar een overcapaciteit kan soms wel voor snelheidwinst zorgen. Bij geheugen hebben ze dit dus in het artikel ontkracht. Dat wil natuurlijk niet zeggen dat je geen behoorlijke snelheidwinst behaald als je geheugen continu vol zit. | |
Riparius | maandag 24 maart 2014 @ 23:02 |
Neem toch maar eens de tijd om het artikel wel in zijn geheel te lezen. Is interessant en ontkracht meteen een aantal mythes over geheugen, maar roept aan de andere kant ook nieuwe vragen op die het artikel niet beantwoordt. Je ziet al meteen bij de standaard benchmarks dat de testsystemen marginaal slechter presteren met 2 × 8 GB in vergelijking met 2 × 4 GB. Dat kan uiteraard aan de karakteristieken van de gebruikte modules liggen, hoewel de timings hierbij wel degelijk gelijk zijn. Dan zien we verder dat strakkere timings (lagere latencies) geen winst opleveren, maar juist een marginaal verlies van performance. De testers geven toe dat ze dit niet kunnen verklaren, maar er volgt wel uit dat de aanschaf van dure geheugenmodules bij moderne systemen met DDR3 (en dus een geïntegreerde memory controller) flauwekul is. Het is verder evident dat de grootste prestatiewinst is te behalen bij een grotere geheugenbandbreedte (memory bandwidth), maar die wordt mede bepaald (gelimiteerd) door de overige hardware. Bevreemdend vind ik de opmerking aan het eind van het artikel: Wie echter de ingebouwde gpu van zijn processor wil gebruiken, bijvoorbeeld om games te spelen zonder losse videokaart, doet er wel verstandig aan te investeren in rap geheugen. Een idiote conclusie, want er is natuurlijk geen gamer die de - bij moderne games altijd onder de maat presterende - geïntegreerde GPU van zijn of haar moederbord gaat gebruiken en dan wél dure geheugenreepjes gaat kopen om de prestaties van de geïntegreerde GPU nog een klein beetje op te krikken. En voor 'normale' 2D toepassingen zoals kantoorsoftware en standaard internet applicaties (surfen en emailen e.d.) zijn de prestaties van een geïntegreerde GPU op een modern systeem ook met standaard geheugen volkomen toereikend. | |
BurnaBoy | maandag 24 maart 2014 @ 23:09 |
Naja met die Apu's wordt het wel interresant om zegmaar in 1 keer klaar te zijn. Maar dat is dus alleen in budget systemen. Op midrange wordt een losse kaart al boeiender. | |
Catch22- | maandag 24 maart 2014 @ 23:10 |
Kunnen die apu's tegenwoordig niet samenwerken met de gpu via een soort crossfire? |