De GTS is in feite een kapotte GTX waarvan de niet werkende onderdelen zijn uitgezet.quote:Op zaterdag 11 augustus 2007 15:40 schreef Biogarde het volgende:
Voor de peeps met een 8*** serie en die hun klassieke controlpanel-weergave weer terug willen hebben:
Ga naar regedit.exe te vinden in de map Windows.
Daarna HKEY_LOCAL_MACHINE/SOFTWARE/NVIDIA Corporation/Global/NvCplApi/Policies.
Maak vervolgens een nieuwe DWORD-waarde aan en noem deze: sedonadisable.
Vervolgens dubbelklik je erop en vul je bij waardegegevens: 2 in.
Nu ga je weer naar je NVIDIA configuratiescherm en kun je bovenin bij Beeld klassiek controlepaneel weer aanzetten.
Da's een 8600. 8800-serie is te koop vanaf 250 ergens..quote:Op donderdag 23 augustus 2007 00:10 schreef Devrim_ het volgende:
Is het raar dat ik een nVidia 8800 GT voor 110 euro heb zien liggen?
Ja dat is raar, hij bestaat namelijk nietquote:Op donderdag 23 augustus 2007 00:10 schreef Devrim_ het volgende:
Is het raar dat ik een nVidia 8800 GT voor 110 euro heb zien liggen?
Wel DX10 neem ik aan?quote:Op donderdag 23 augustus 2007 00:59 schreef Biogarde het volgende:
Oh, en voor de Bioshock fans: Bioshock gaat als een raket op de GTS. Alles vloeiend op max detail en resolutie.
Battlefield 2 draait bij mij ook op max. met een 7600GT.quote:Op woensdag 22 augustus 2007 23:36 schreef FritsFlits het volgende:
8800GTSPrima kaart. Lekker snel, Battlefield 2 draait op hoogste settings op 1680x1050.
Alleen als ik Quicktime Player wil updaten, krijg ik een runtime error bij Quicktime.Schijnt meer voor te komen bij de 8xxx serie en de XP-drivers.
En werkt de 8600 een beetje fatsoenlijk?quote:Op donderdag 23 augustus 2007 00:23 schreef Biogarde het volgende:
[..]
Da's een 8600. 8800-serie is te koop vanaf 250 ergens..
Sorry, niet echt. Dan kun je beter voor een dikke Dx9-kaart gaan.quote:Op donderdag 23 augustus 2007 07:39 schreef Devrim_ het volgende:
[..]
En werkt de 8600 een beetje fatsoenlijk?
[Xbox 360, PC] Bioshockquote:Op donderdag 23 augustus 2007 06:39 schreef Merovingian het volgende:
[..]
Ja dat is raar, hij bestaat namelijk niet
@Bio: Dat Bioshock, je bent er zo lovend over, wat is er nou precies zo geweldig aan? Ik ken het spel niet verder, dus wat uitleg wordt op prijs gesteld
Is de 8600GT dan geen dikke Dx9-kaart?quote:Op donderdag 23 augustus 2007 09:06 schreef SoupNazi het volgende:
[..]
Sorry, niet echt. Dan kun je beter voor een dikke Dx9-kaart gaan.
Welke reso? Lost planet ging echt niet lekker op 1900x1200 (24 inch wide) met alles Full, haalde soms maar 15 Fpsquote:Op donderdag 23 augustus 2007 00:59 schreef Biogarde het volgende:
Oh, en voor de Bioshock fans: Bioshock gaat als een raket op de GTS. Alles vloeiend op max detail en resolutie.
1680 x 1050.quote:Op donderdag 23 augustus 2007 17:06 schreef HeatWave het volgende:
[..]
Welke reso? Lost planet ging echt niet lekker op 1900x1200 (24 inch wide) met alles Full, haalde soms maar 15 Fps.
OK, kan ik mee leven danquote:Op donderdag 23 augustus 2007 17:13 schreef Biogarde het volgende:
[..]
1680 x 1050.
Bij 1900 x 1200 gaat ie idd hakkelen. Wanneer er veel te zien is in een omgeving heb je een drop van 20 frames soms. 1600 liep wel lekker.
Geen idee eik. Wellicht proberen? Nieuwe drivers is sowieso altijd beter.quote:Op donderdag 23 augustus 2007 20:59 schreef SoupNazi het volgende:
WOW. Sinds zojuist mijn 8800GTS 320MB binnen en werkelijk ALLES draait op max. Cod2, Bioshock, Rainbow Six Vegas, Dirt, Call of Juarez, TDU. Op een resolutie van 1440x900. Dus ik ben blij dat ik die extra 80 euro niet heb uitgegeven aan de 640MB-versie. En klopt het trouwens dat ik met de nieuwe nVidia-drivers Test Drive Unlimited met HDR én AA kan draaien?![]()
Ja het kan bij mij dus wel nu. Maar ik meen me dus te herinneren dat HDR+AA helemaal niet kon, dus vandaar.quote:Op donderdag 23 augustus 2007 22:02 schreef Biogarde het volgende:
[..]
Geen idee eik. Wellicht proberen? Nieuwe drivers is sowieso altijd beter.
quote:Op donderdag 23 augustus 2007 22:02 schreef Biogarde het volgende:
[..]
Geen idee eik. Wellicht proberen? Nieuwe drivers is sowieso altijd beter.
Nou, ik moet idd bekennen dat ik ooit een 7900GS had waarvan de bijgeleverde driver op cd de beste was dan al die updates die er na die tijd kwamen.quote:Op donderdag 23 augustus 2007 22:15 schreef Merovingian het volgende:
[..]
Regelmatig met nVidia gehad bij de drivers tussen januari en juni dat als je weer een nieuwe versie nam, er een probleem met een spel verholpen was, maar dat er vervolgens 3 andere games weer kut draaiden of er niet uitzagen ofzo.
Lezen.quote:Op donderdag 23 augustus 2007 22:18 schreef Biogarde het volgende:
Maar goed, mocht Soup het zeker willen weten dan zal hij het moeten testen.
En daar hebben wij ook wat aan![]()
Ik kan niet lezen.quote:Op donderdag 23 augustus 2007 23:07 schreef SoupNazi het volgende:
[..]
Lezen.Het werkt bij mij dus al, maar ik zocht even confirmatie.
3Dmark?quote:Op vrijdag 24 augustus 2007 18:06 schreef Sjibble het volgende:
beetje offtopic maar toch wel ontopic
Ik krijg dus een lappie met een 8600M GT erin, waar kan ik die vergelijken met de 8800 GTS?
Daar ben ik ook benieuwd naarquote:Op maandag 27 augustus 2007 03:25 schreef Frumzel het volgende:
Het zal misschien al wel aan de orde zijn geweest, maar stel m'n vraag toch:
De laatste tijd lees ik allemaal verhalen dat allerlei computergebruikers wachten tot november met het upgraden van het systeem, omdat dan de 9800gts/gtx uitkomen en deze een veel betere ondersteuning voor directx 10(.1) geven.
Nu geloof ik dat graag, maar is het verschil nu werkelijk zo groot dat je ineens een jaar langer mee vooruit kan vóór de volgende upgrade of is het weer een opgelaaide hype door bijvoorbeeld tweakers (zoals ook werd gesproken over de 8800 serie) en dat het enkel wat grafische verbeteringen/ondersteuningen zijn?
Dus als ik een 8800 gts zou kopen, doe ik er dan werkelijk verkeerd aan om geen 2 maanden te wachten voor een (volgens nieuwsberichten 2x(!?) ) zo snellere kaart.
nou dan wil ik je wel van je oude kaart afhelpen tegen die tijdquote:Op maandag 27 augustus 2007 07:25 schreef Kyller het volgende:
[..]
Daar ben ik ook benieuwd naar![]()
Ik heb nu een 8800gtx, maarja, als die kaart echt 2x zo snel is en het verschil is echt aanzienlijk, ben ik toch ban dat ik weer zo'n drang krijg om hem te kopen
Zelf nu eindelijk ook een 8800GTS, alles draait als een treinquote:Op zondag 26 augustus 2007 13:40 schreef SoupNazi het volgende:
Ik zit nu trouwens met mijn 8800GTS en Athlon X2 5600+ op 9700 3DMarks (06), dus dat lijkt me wel een mooi resultaat.
Zou er niet van uitgaan dat die 98-serie daadwerkelijk aan het eind van het jaar verkrijgbaar is.quote:Op maandag 27 augustus 2007 03:25 schreef Frumzel het volgende:
Het zal misschien al wel aan de orde zijn geweest, maar stel m'n vraag toch:
De laatste tijd lees ik allemaal verhalen dat allerlei computergebruikers wachten tot november met het upgraden van het systeem, omdat dan de 9800gts/gtx uitkomen en deze een veel betere ondersteuning voor directx 10(.1) geven.
Nu geloof ik dat graag, maar is het verschil nu werkelijk zo groot dat je ineens een jaar langer mee vooruit kan vóór de volgende upgrade of is het weer een opgelaaide hype door bijvoorbeeld tweakers (zoals ook werd gesproken over de 8800 serie) en dat het enkel wat grafische verbeteringen/ondersteuningen zijn?
Dus als ik een 8800 gts zou kopen, doe ik er dan werkelijk verkeerd aan om geen 2 maanden te wachten voor een (volgens nieuwsberichten 2x(!?) ) zo snellere kaart.
Videokaart op z'n flikker geven denk ik? Gewoon overclocken. Meeste GTS'en draaien 650/2000.quote:Op maandag 27 augustus 2007 17:52 schreef Augustus_Thijs het volgende:
[..]
Zelf nu eindelijk ook een 8800GTS, alles draait als een trein.. prima kaart..
alleen jammer dat ik ook 'maar' iets van 9500 3dmarks scoor, terwijl ik een Athlon x2 6000+ heb..
Heb jij misschien meer ram?(2gig) Of heb je het een en ander gewoon getweaked?
Dat is zeer netjes. Ik heb ook 2 gieg, maar ik had mijn videokaart wel een stuk hoger dan standaard draaien. Helaas zit nu op een clean install van Vista en krijg ik hem niet eens meer over de 8700 heen met dezelfde clocks, en met dezelfde (163.11) drivers. Duizend punten lager dus. Iemand enig idee waar dit aan kan liggen?quote:Op maandag 27 augustus 2007 17:52 schreef Augustus_Thijs het volgende:
[..]
Zelf nu eindelijk ook een 8800GTS, alles draait als een trein.. prima kaart..
alleen jammer dat ik ook 'maar' iets van 9500 3dmarks scoor, terwijl ik een Athlon x2 6000+ heb..
Heb jij misschien meer ram?(2gig) Of heb je het een en ander gewoon getweaked?
Is de driver-ondersteuning voor Vista al optimaal? Las ergens dat het nog steeds niet helemaal geweldig was.quote:Op maandag 27 augustus 2007 18:32 schreef SoupNazi het volgende:
[..]
Dat is zeer netjes. Ik heb ook 2 gieg, maar ik had mijn videokaart wel een stuk hoger dan standaard draaien. Helaas zit nu op een clean install van Vista en krijg ik hem niet eens meer over de 8700 heen met dezelfde clocks, en met dezelfde (163.11) drivers. Duizend punten lager dus. Iemand enig idee waar dit aan kan liggen?![]()
Die 9700 was ook gewoon op Vista, dus dat zou geen verschil moeten maken.quote:Op maandag 27 augustus 2007 18:52 schreef Biogarde het volgende:
[..]
Is de driver-ondersteuning voor Vista al optimaal? Las ergens dat het nog steeds niet helemaal geweldig was.
Ik denk zelf dat DX10(1) pas over een jaar of anderhalf mainstream is. En ik denk dat we over 4 jaar een aantal versie's verder zijn, omdat ze steeds sneller kaarten uitbrengen die de volgende generatie DX ook al ondersteunen.quote:Op dinsdag 28 augustus 2007 01:24 schreef Frumzel het volgende:
Na even wat research gedaan te hebben:
Hoe lang zal het duren voordat er games verschijnen die directx 10 only zijn? Of directx 10.1 only (dus niet meer onder directx 9 draaien)?
Crysis is bijvoorbeeld weliswaar een directx 10 spel, echter deze draait zover ik begrepen heb ook gewoon onder directx 9.
Aangezien in tegenstelling tot directx 9, directx 10 niet meer backwards compatible is en directx 10.1 niet meer backwards compatible is (met directx 10), is dus mijn vraag over hoeveel jaar dat is (2 jaar, 3 jaar, 4 jaar?)
Als iemand daar ook een bron bij heeft, zou het helemaal top zijn
Mja, waar ik eigenlijk op doelde:quote:Op dinsdag 28 augustus 2007 01:27 schreef Biogarde het volgende:
[..]
Ik denk zelf dat DX10(1) pas over een jaar of anderhalf mainstream is. En ik denk dat we over 4 jaar een aantal versie's verder zijn, omdat ze steeds sneller kaarten uitbrengen die de volgende generatie DX ook al ondersteunen.
Voorlopig blijft het gros op 9 hangen ivm de overstap naar Vista. Een hoop mensen blijven voorlopig (aantal jaar) op XP hangen als ik de diverse fora mag geloven.
Mja, ik zat zelf te denken aan de 640MB versie (o.a. vanwege schermresolutie van 1680x1050). Maar goed, dit haalt me wel over om niet tot november (of later) te wachten. Nu nog even overtuigd zijn van mezelf dat ik het echt wil (geld groeit niet op m'n rugquote:Op dinsdag 28 augustus 2007 11:42 schreef nigel2 het volgende:
Ik denk dat je nog niet aan DX 10.1 moet denken.
Het duurt nog een tijdje voordat alle spellen alleen op DX 10 draaien laatstaan DX 10.1.
Als je een kaart wilt die 3-4 jaar meegaat moet je denken aan een 8800 ultra denk ik (van rond de 700 euro). Maar ik denk dat een 8800GTS 320mb wel lang meegaat als je kijkt hoelang het duurt voordat de spellen allemaal DX10 ondersteunen.
Wat voor geheugen heb je?quote:Op dinsdag 28 augustus 2007 20:52 schreef SoupNazi het volgende:
Hmm.. het lijkt er op alsof mijn CPU de bottleneck is (X2 5600+), mijn GTS draait nu op 620/910, en komt tot de 9700. Als ik hem nog verder klok blijft hij zo rond de 9700 zitten. Zijn er nog meer mensen die dit probleem hebben?
Corsair TwinX XMS2 6400 2 GB (4-4-4-12)quote:
Ah, ik heb hetzelfde geheugen in dit systeem. Is ook redelijk te overclocken.quote:Op dinsdag 28 augustus 2007 21:18 schreef SoupNazi het volgende:
[..]
Corsair TwinX XMS2 6400 2 GB (4-4-4-12)
Ik heb nu mijn processor op 2850 mhz draaien ipv 2800, en mijn 3DMark-score is meteen van 9700 naar 9860 gegaan, dus probleem opgelost.![]()
Uiteraard. Hoever heb je ze overgeclockt (timings/voltage/freq)?quote:Op dinsdag 28 augustus 2007 21:20 schreef Biogarde het volgende:
[..]
Ah, ik heb hetzelfde geheugen in dit systeem. Is ook redelijk te overclocken.
Heb je die rambankjes wel in Dual-channel geplaatst? Scheelt ook weer iets.
Niet.quote:Op dinsdag 28 augustus 2007 21:39 schreef SoupNazi het volgende:
[..]
Uiteraard. Hoever heb je ze overgeclockt (timings/voltage/freq)?
Yes.quote:Op dinsdag 28 augustus 2007 22:06 schreef SoupNazi het volgende:
[..]
Ah ok. Je hebt ze wel op 4-4-4-12 gezet hoop ik? De timings waarop ze horen?
Mooi.quote:
3Dmark 06 is alleen geen goede benchmark.quote:Op dinsdag 28 augustus 2007 23:13 schreef dikkedorus het volgende:
Beetje moeilijk discussieren zonder goede benchmark...punker *proest*
Grote gamemakers houden 't voorlopig nog bij DX9.quote:Op dinsdag 28 augustus 2007 23:49 schreef dikkedorus het volgende:
DX10.1 is echt drie keer niets nieuws. Als het ooit wordt gebruikt zullen de games gemakkelijk BC kunnen draaien.
Dus omdat Valve zegt dat DirectX10 nog niet nodig is houden alle grote game-makers het voorlopig nog bij DX9.quote:Op dinsdag 28 augustus 2007 23:51 schreef schvvmert het volgende:
[..]
Grote gamemakers houden 't voorlopig nog bij DX9.![]()
http://core.tweakers.net/nieuws/49104/Valve:-DirectX-10-is-nog-nergens-voor-nodig.html
Weet je een betere?quote:Op dinsdag 28 augustus 2007 23:15 schreef schvvmert het volgende:
[..]
3Dmark 06 is alleen geen goede benchmark.![]()
Goed benchmarken is niet 1 tool voor, dat doe je met verschillende proggies. 3Dmark is er 1 van.quote:
Klinkt stoer maar zolang 90% nog een DX9 kaart heeft en de vraag is hoe goed de nieuwste DX10 kaarten zijn dan blijft elke game ontwikkelaar zeker DX9 versie ook uitbrengen.quote:Op dinsdag 28 augustus 2007 23:55 schreef dikkedorus het volgende:
DX10 is heel krachtig, moet je alleen wel de ballen hebben om een DX10-only pipeline met geoshaders te maken.
Crysis?quote:Op woensdag 29 augustus 2007 00:38 schreef dikkedorus het volgende:
Het zal nog wel even duren idd. Het is wachten op een goede DX10 engine
Doe het dan ook met een fatsoenlijke benchmark. Aan 3dmark heb je 0,0 , het is namelijk veelste systeem afhankelijk. Het test niet alleen je graka of alleen je CPU. Het test de combinatie ervan.quote:Op dinsdag 28 augustus 2007 23:13 schreef dikkedorus het volgende:
Beetje moeilijk discussieren zonder goede benchmark...punker *proest*
Je hebt helemaal gelijk, met spellen gebruik je namelijk ook alleen je videokaart of alleen je CPU, nooit samen.quote:Op woensdag 29 augustus 2007 08:28 schreef punkjunk het volgende:
[..]
Doe het dan ook met een fatsoenlijke benchmark. Aan 3dmark heb je 0,0 , het is namelijk veelste systeem afhankelijk. Het test niet alleen je graka of alleen je CPU. Het test de combinatie ervan.![]()
Je gebruikt toch ook je hele systeem om een spel te spelenquote:Op woensdag 29 augustus 2007 08:28 schreef punkjunk het volgende:
[..]
Doe het dan ook met een fatsoenlijke benchmark. Aan 3dmark heb je 0,0 , het is namelijk veelste systeem afhankelijk. Het test niet alleen je graka of alleen je CPU. Het test de combinatie ervan.![]()
En DX10 is ook onder XP te doen?quote:Op dinsdag 28 augustus 2007 01:27 schreef Biogarde het volgende:
Voorlopig blijft het gros op 9 hangen ivm de overstap naar Vista. Een hoop mensen blijven voorlopig (aantal jaar) op XP hangen als ik de diverse fora mag geloven.
Nee.quote:Op woensdag 29 augustus 2007 09:54 schreef Verbal het volgende:
[..]
En DX10 is ook onder XP te doen?
V.
Crysis draait nog steeds een DX9 pipeline ernaast dacht ik? Dus ze kunnen te al te gekke DX10 dingen inbouwen zonder letterlijk twee verschillende engines te schrijven. Het zag er igg niet heel erg boeiend uit. Crysis hangt meer op physics en goede culling/LoD, niet op grafische effecten.quote:
We weten wel hoeveel geheugen die kaart heeft hoorquote:Op woensdag 29 augustus 2007 14:18 schreef Killaht het volgende:
In het bezit van de 8800 GTX 768mbwerkt uitstekend!
Bij spellen gebruik je het wel, maar op een hele andere manier. Bij spellen kun je met een gare CPU maar een dikke graka en veel ram nog veel FPS halen terwijl dat in 3dmark niet mogelijk is. Vandaar.quote:Op woensdag 29 augustus 2007 09:02 schreef SoupNazi het volgende:
[..]
Je hebt helemaal gelijk, met spellen gebruik je namelijk ook alleen je videokaart of alleen je CPU, nooit samen.
![]()
3DMark benched wel het gemiddelde van wat games vragen qua systeem-eisen.quote:Op woensdag 29 augustus 2007 17:23 schreef punkjunk het volgende:
[..]
Bij spellen gebruik je het wel, maar op een hele andere manier. Bij spellen kun je met een gare CPU maar een dikke graka en veel ram nog veel FPS halen terwijl dat in 3dmark niet mogelijk is. Vandaar.
![]()
Nogal wat onzin wat je vertelt. Verder mag je het ook wel onderbouwen met wat voorbeelden, want ik ben erg nieuwsgierig waarop je dit baseert.quote:Op woensdag 29 augustus 2007 17:23 schreef punkjunk het volgende:
[..]
Bij spellen gebruik je het wel, maar op een hele andere manier. Bij spellen kun je met een gare CPU maar een dikke graka en veel ram nog veel FPS halen terwijl dat in 3dmark niet mogelijk is. Vandaar.
![]()
Nu geef je ook gelijk 2 extremen heh, dat is niet eerlijk. Terwijl wanneer je tussen een budget en een 6600 C2D een 3dmark zou draaien je een vreselijk ongelijke score zou krijgen terwijl het in game een klein aantal fps scheeld.quote:Op woensdag 29 augustus 2007 17:46 schreef Biogarde het volgende:
Als ik game op een P4 of een C2D dan scheelt dat 30 frames met gemak.
Zelfde systeem op de CPU na.
Van 3dmark is het algemeen bekend dat het héél erg cpu gerelateerd is wat voor scoren je krijgt, daar hoef ik geen voorbeelden van te geven.quote:Op woensdag 29 augustus 2007 17:43 schreef SoupNazi het volgende:
[..]
Nogal wat onzin wat je vertelt. Verder mag je het ook wel onderbouwen met wat voorbeelden, want ik ben erg nieuwsgierig waarop je dit baseert.
Alle CPU's VOOR de C2D zijn al budget. Zou niet weten met wat ik het anders moet vergelijken.quote:Op woensdag 29 augustus 2007 17:49 schreef punkjunk het volgende:
[..]
Nu geef je ook gelijk 2 extremen heh, dat is niet eerlijk. Terwijl wanneer je tussen een budget en een 6600 C2D een 3dmark zou draaien je een vreselijk ongelijke score zou krijgen terwijl het in game een klein aantal fps scheeld.
[..]
Van 3dmark is het algemeen bekend dat het héél erg cpu gerelateerd is wat voor scoren je krijgt, daar hoef ik geen voorbeelden van te geven.
Waarom de 640 versie? De MSI OC versie (320) is veel sneller dan die 640 versie.quote:Op woensdag 29 augustus 2007 17:52 schreef Frumzel het volgende:
Even iets leuks te melden (als het spam is, modereer het dan maar weg), maar zag bij Alternate een XFX 8800GTS 320MB te koop mét de game Lost Planet. Echter nu baal ik daar wel van, want ik wil juist de 640MB versie(die ook nog eens ¤100,= duurder is).
Nou is mijn vraag ook, zit zo'n game in de verpakking of wordt dat er los bij gegeven? (aangezien dit volgens mij enkel dus bij Alternate is) en kan je bij zo'n shop afdingen of ik dat spel ook kan krijgen bij de 640MB versie?
Mja, dat is juist het lastige. Maximale resolutie van mijn scherm is 1680x1050. En wil wel even doen met de kaartquote:Op woensdag 29 augustus 2007 17:55 schreef Biogarde het volgende:
[..]
Waarom de 640 versie? De MSI OC versie (320) is veel sneller dan die 640 versie.
640 is alleen hendig wanneer je op hoge resolutie gaat gamen. Alles vanaf de 24".
Ga je op hoge reso gamen?
Dan heb je in feite niks aan de 640-versie. 320 trekt het makkelijk.quote:Op woensdag 29 augustus 2007 17:57 schreef Frumzel het volgende:
[..]
Mja, dat is juist het lastige. Maximale resolutie van mijn scherm is 1680x1050. En wil wel even doen met de kaart
Ja, maar dan is ie nog steeds niet sneller. Alleen meer geheugen (buffer).quote:Op woensdag 29 augustus 2007 17:57 schreef Frumzel het volgende:
[..]
Mja, dat is juist het lastige. Maximale resolutie van mijn scherm is 1680x1050. En wil wel even doen met de kaart
Maar die 640 van XFX is toch ook over te klokken?
Ik lees op diverse fora dat een 640MB wordt aangeraden vanaf een resolutie van 1280x1024. Maar aan de andere kant, het scheelt wel 100 ¤uries...quote:Op woensdag 29 augustus 2007 17:59 schreef Biogarde het volgende:
[..]
Dan heb je in feite niks aan de 640-versie. 320 trekt het makkelijk.
Je hebt sowieso lang zat wat aan die kaart, want DX10 zal nog lang niet mainstream worden![]()
Het is het verschil 100% niet waard.quote:Op woensdag 29 augustus 2007 18:05 schreef Frumzel het volgende:
[..]
Ik lees op diverse fora dat een 640MB wordt aangeraden vanaf een resolutie van 1280x1024. Maar aan de andere kant, het scheelt wel 100 ¤uries...
Dilemma!
Ik bedoel een 6600 tov bijvoorbeeld een 6200.quote:Op woensdag 29 augustus 2007 17:53 schreef Biogarde het volgende:
[..]
Alle CPU's VOOR de C2D zijn al budget. Zou niet weten met wat ik het anders moet vergelijken.
Er zijn games waar je idd het verschil niet merkt. Maar de HUIDIGE games adviseren als minimale eis een C2D omdat je van alle eye-candy gebruik kunt maken. Kijk, doom 3 loopt op een Pentium 3 zelfs soepel
Maar qua renderen van frames zit je beter met een C2D omdat deze veel meer kan berekenen dan een singlecore.
Je bedoelt dat het verschil in snelheid van een stock 320MB-oc of een 640MB (zelf oc) in het voordeel is van de stock 320MB-oc is? Of bazel ik nu maar wat?quote:Op woensdag 29 augustus 2007 17:59 schreef Biogarde het volgende:
[..]
Ja, maar dan is ie nog steeds niet sneller. Alleen meer geheugen (buffer).
Niet die 100 euro dus...quote:Op woensdag 29 augustus 2007 18:06 schreef Biogarde het volgende:
[..]
Het is het verschil 100% niet waard.
Die 320 is in veel gevallen sneller. Zelfs stock en zelfs wanneer die 640 is overclocked en die 320 niet.quote:Op woensdag 29 augustus 2007 18:09 schreef Frumzel het volgende:
[..]
Je bedoelt dat het verschil in snelheid van een stock 320MB-oc of een 640MB (zelf oc) in het voordeel is van de stock 320MB-oc is? Of bazel ik nu maar wat?
Wat apart. Waar ligt dat eigenlijk aan?quote:Op woensdag 29 augustus 2007 18:15 schreef Biogarde het volgende:
[..]
Die 320 is in veel gevallen sneller. Zelfs stock en zelfs wanneer die 640 is overclocked en die 320 niet.
320 is in veel gevallen dus in het voordeel.
Tjonge, die 320MB is écht in veel gevallen sneller. Thx! Die grafieken had ik nog niet gezien.quote:Op woensdag 29 augustus 2007 18:17 schreef Biogarde het volgende:
http://www23.tomshardware.com/graphics_2007.html?modelx=33&model1=707&model2=778&chart=318
Dit als overall genomen. Je kan ook per game kiezen. Dan zal je zien dat die 320 op stock sneller is.
En zelfs sneller dan dat pareltje () van ATI. Die 2900
![]()
Gaan we nu bier drinken van die ¤100 die je in je zak houdt?![]()
Die MSI OC versie geeft iets meer weg dan een gewone versie. Die KO-versie van EVGA is ook uber btw.quote:Op woensdag 29 augustus 2007 18:27 schreef Frumzel het volgende:
[..]
Tjonge, die 320MB is écht in veel gevallen sneller. Thx! Die grafieken had ik nog niet gezien.
Mijn keus is wel gemaakt. En jij raad MSI (de oc-versie) aan? Of maakt het niet zoveel verder?
(Tja, je kan er wel heel veel bier voor kopen ja...)
-edit-
Overigens dat ATI flink achterbleef, had ik al wel begrepen
Hmmm, die is wel de duurste van allemaalquote:
Bij resoluties >1280x1024 is de 640-versie wel degelijk beter, zeker als AA ook nog aangezet wordt.quote:Op woensdag 29 augustus 2007 17:59 schreef Biogarde het volgende:
[..]
Dan heb je in feite niks aan de 640-versie. 320 trekt het makkelijk.
Je hebt sowieso lang zat wat aan die kaart, want DX10 zal nog lang niet mainstream worden![]()
Dezequote:Op woensdag 29 augustus 2007 18:53 schreef SoupNazi het volgende:
[..]
Bij resoluties >1280x1024 is de 640-versie wel degelijk beter, zeker als AA ook nog aangezet wordt.![]()
link zegt dus anders...quote:
en een standaard overclockte XFX?quote:Op woensdag 29 augustus 2007 18:33 schreef Biogarde het volgende:
[..]
Die MSI OC versie geeft iets meer weg dan een gewone versie. Die KO-versie van EVGA is ook uber btw.
Beide kaarten draaien met gemak 650Mhz op de GPU en 2000 Mhz op het geheugen.
Ze hebben simpelweg 9 van de 10 keer iets meer overclockruimte dan bijvoorbeeld een standaard XFX.
Ik heb het iig nog nooit voor elkaar gekregen om een normale versie op 650/2000 te laten lopen zonder dat je een ei kan bakken op de kaart![]()
En daar komt bij dat ze NIET stabiel draaien en dus vastlopen.
Kaarten worden btw met gemak 70 a 80 graden in games. Overclocked. Zorg dus wel voor voldoende afzuiging en airflow in je kast.
Die is ook goed.quote:Op woensdag 29 augustus 2007 19:09 schreef Frumzel het volgende:
[..]
en een standaard overclockte XFX?(die is namelijk wel weer snel binnen bij Alternate als ik de "voorraadtijd" mag geloven).
Qua frames te verwaarlozen en die ¤100 echt niet waard.quote:Op woensdag 29 augustus 2007 18:53 schreef SoupNazi het volgende:
[..]
Bij resoluties >1280x1024 is de 640-versie wel degelijk beter, zeker als AA ook nog aangezet wordt.![]()
Oh okquote:
Idd juist het leukste pakketje nemen.quote:Op woensdag 29 augustus 2007 19:21 schreef Frumzel het volgende:
[..]
Oh ok
Das mooi, want daar krijg je ook nog het spel Ghost Recon bij
(niet dat het me persé daar om gaat, maar is wel mooi mee genomen)
In die benchmarks van Tom's Hardware is inderdaad bijna geen verschil gezien, maar ik meen er toch echt aardig wat gezien te hebben waarin er op hogere resoluties veel verschil in zat.quote:Op woensdag 29 augustus 2007 19:13 schreef Biogarde het volgende:
[..]
Qua frames te verwaarlozen en die ¤100 echt niet waard.
In DX10 wellicht.quote:Op woensdag 29 augustus 2007 19:36 schreef SoupNazi het volgende:
[..]
In die benchmarks van Tom's Hardware is inderdaad bijna geen verschil gezien, maar ik meen er toch echt aardig wat gezien te hebben waarin er op hogere resoluties veel verschil in zat.
Nope. P4 hier en ik kreeg het niet fatsoenlijk lopend.quote:Op woensdag 29 augustus 2007 17:53 schreef Biogarde het volgende:
Kijk, doom 3 loopt op een Pentium 3 zelfs soepel
Er zijn games zat waar budgetkaarten beter weten te presteren dan high-end zoals de Ultraquote:Op woensdag 29 augustus 2007 19:50 schreef Frumzel het volgende:
Deze grafiek is apart. De beide GTS en de 7900GTX presteren beter dan de 8800GTX?. Weliswaar een halve frame p/s, maar verschil is er dus amper tot niet?
P3 icm met (laten we gek doen) een GTS.quote:Op woensdag 29 augustus 2007 19:53 schreef Verbal het volgende:
[..]
Nope. P4 hier en ik kreeg het niet fatsoenlijk lopend.
V.
Ik kreeg het op mijn 8800GTX en C2D E6600 zelfs niet fatsoenlijk lopendquote:Op woensdag 29 augustus 2007 19:53 schreef Verbal het volgende:
[..]
Nope. P4 hier en ik kreeg het niet fatsoenlijk lopend.
V.
quote:Op woensdag 29 augustus 2007 20:12 schreef Merovingian het volgende:
[..]
Ik kreeg het op mijn 8800GTX en C2D E6600 zelfs niet fatsoenlijk lopend
Serieus... Zal wel aan de drivers hebben gelegen, was december 2006, of misschien januari 2007. Maar toch, ik kreeg er met 1280*1024 met settings op medium niet meer dan 20 fps uitquote:
Ik denk dat het nu echt wel zou lukken hoor.quote:Op woensdag 29 augustus 2007 20:31 schreef Merovingian het volgende:
[..]
Serieus... Zal wel aan de drivers hebben gelegen, was december 2006, of misschien januari 2007. Maar toch, ik kreeg er met 1280*1024 met settings op medium niet meer dan 20 fps uit
Volgens mij lag het aan de shadows... Binnenkort maar weer eens opnieuw installeren en kijken wat ie doet.
Mja, dat kan wel, maar die is wel 60 euro duurder dus...quote:Op donderdag 30 augustus 2007 13:06 schreef Merovingian het volgende:
Ik zou de XXX versie nemen en Lost Planet downloaden
Gewoon de goedkopere nemen en dan overclocken.quote:Op donderdag 30 augustus 2007 13:00 schreef Frumzel het volgende:
Argh. Toch nog dilemma
Zit nog steeds te twisten met mezelf of ik vandaag ga en dan voor de XFX 8800GTS op 500Mhz (standaard dus) voor ¤259,= mét het spel Lost Planet of tot morgen moet wachten en dan gaan voor de ¤40,= of ¤60,= duurdere XFX 8800GTS op 560Mhz of de XXX-versie op 580Mhz (standaard overklokt dus). Maar goed, bij die laatste krijg je géén Lost Planet erbij (net nagevraagd).
Ik bedoel dus, is het 't wachten en die 40 tot 60 euro wérkelijk waard?
En zelf overklokken moet toch ook lukken, ook al krijg je 'm dan niet zo hoog als de standaard overclockte versies dat zouden kunnen (waarbij ie mij dan standaard overklokt toch wel snel genoeg is).
Er wordt gesproken over november. Maar dat zal inderdaad wel volgend jaar worden...quote:Op donderdag 30 augustus 2007 13:58 schreef Steve-O het volgende:
Wanneer komt de opvolger van de 8800 moet een upgrade hebben?
Hmm dan wacht ik maar ff mijn 9800 doet het immers al 3 primaquote:Op donderdag 30 augustus 2007 14:08 schreef Frumzel het volgende:
[..]
Er wordt gesproken over november. Maar dat zal inderdaad wel volgend jaar worden...
En dan te bedenken dat ze na deze serie bij Nvidia overtappen op de 9800 seriequote:Op donderdag 30 augustus 2007 14:24 schreef Steve-O het volgende:
[..]
Hmm dan wacht ik maar ff mijn 9800 doet het immers al 3 prima
Ik ben aan het wachten op een kleine financiële injectie die ik een dezer dagen ontvang. En dan ga ik mij op het grootste gemak goed oriënteren op wat ik wil: een behoorlijk geoutfitte computer met een 8800 GTS opdat ik straks lekker kan Crysisen, of -hernieuwde mogelijkheid- een klein, fijn laptopje, waarop ik niet echt kan gamen, maar waar ik wel een hoop andere dingen mee kan.quote:Op woensdag 29 augustus 2007 20:00 schreef Biogarde het volgende:
Heb jij nou al een nieuwe kaart of is gij nog aan het sparen voor de nieuwe generatie?
Wachten.quote:Op donderdag 30 augustus 2007 18:36 schreef Frumzel het volgende:
Zo, besteld
Toch maar even wachten dus en gekozen voor de MSI-oplossing(¤270,=)
(Zal dan wel helaas pas minimaal maandag worden vrees ik, maar goed...)
Och, morgen ga ik m'n voeding, geheugen en CPU-koeler halen in Ridderkerk, dus dan kan ik die vast mooi zo bij elkaar leggenquote:
Alternate. Mooie winkel. Neem wel ff de tijd, want het is daar altijd drukquote:Op donderdag 30 augustus 2007 22:31 schreef Frumzel het volgende:
[..]
Och, morgen ga ik m'n voeding, geheugen en CPU-koeler halen in Ridderkerk, dus dan kan ik die vast mooi zo bij elkaar leggen![]()
Ik ben er even geleden geweest. Op een zaterdag...quote:Op donderdag 30 augustus 2007 23:05 schreef Biogarde het volgende:
[..]
Alternate. Mooie winkel. Neem wel ff de tijd, want het is daar altijd druk
Prijzen kloppen gewoon hoor! Een quad heeft nog weinig voordeel tegenover een duo. En ze zijn veel te vlot geweest met releasen.quote:Op vrijdag 31 augustus 2007 14:15 schreef nigel2 het volgende:
uhhm bij alternate heb je nu een aanbieding Intel® Core 2 Quad Q6600 voor 259 euro klopt dat wel?
Want je hebt een core 2 duo E6600 voor 219 euro dacht ik en nu ineens voor 40 euro meer een quad core.
En dat spel lost planet die je bij de 8800gts krijgt is dat wel een mooi en leuk spel?
Voeding trekt het wel. En zoals eerder uitgelegd, een quad core is vier processors in één. Deze heeft dus ook maar 1 socket nodig. Anders had het ook geen quad core geheten, maar gewoon vier processors.quote:Op vrijdag 31 augustus 2007 20:38 schreef nigel2 het volgende:
Oke bedankt ik kijk naar de 8800gts.
Maar ik zie dat de E6750 goedkoper is dan de E6600 hoe zit dat precies?
Ik heb een voeding van 500 watt denk je dat een quad core processor en een 8800 de voeding de voeding aankan? Ik heb een acer T660 socket 775 ik zie maar 1 plek voor de processor kan er dan ook z'n quad core in?
alvast bedankt.
Jouw moederboard zal geen quadcore ondersteunen. Ook geen Core2Duo's.quote:Op vrijdag 31 augustus 2007 20:38 schreef nigel2 het volgende:
Oke bedankt ik kijk naar de 8800gts.
Maar ik zie dat de E6750 goedkoper is dan de E6600 hoe zit dat precies?
Ik heb een voeding van 500 watt denk je dat een quad core processor en een 8800 de voeding de voeding aankan? Ik heb een acer T660 socket 775 ik zie maar 1 plek voor de processor kan er dan ook z'n quad core in?
alvast bedankt.
Ik las her en der dat men de 6750 moeiteloos tot 4Ghz hadden gekloktquote:Op vrijdag 31 augustus 2007 21:00 schreef Biogarde het volgende:
Voor een 6 a 700 Euro kun je een hele nette PC in elkaar jassen!
En de reden dat die 6750 goedkoper is, is omdat hij een FSb van 1333 heeft tegenover de 1066 van de E6600. 1066 = 'oude' chipset (p965) en 1333 is de nieuwe variant (P35).
En aangezien fabrikanten waarschijnlijk liever zien dat je zo snel mogelijk met de meute meeloopt, maken ze die goedkoper. En daar komt bij dat de 6600 zich wel bewezen heeft als overclocker bij uitstek.
775 ondersteunt inderdaad gewoon C2Dquote:Op vrijdag 31 augustus 2007 23:23 schreef nigel2 het volgende:
Het probleem is juist dat ik 5 maanden geleden deze pc met 19" scherm heb gekocht en een grafische kaart voor 170 euro ondertussen de 1gb naar 2 gb verhoogd voeding vervangen.
dat komt ongeveer neer op een kleine 1200 euro dus k wil nu niet veel geld uit geven.
Maar mijn moederbord is toch een 775 socket en die moet dus togh ook core 2 duo ondersteunen?
Ik heb nu een pentium D 2.8 ghz.
Ik wil in ieder geval dat aankomende spellen het goed gaan doen met de 8800 zonder te haperen.
Hm, alle moederborden die 775 hebben?quote:Op zaterdag 1 september 2007 00:17 schreef SoupNazi het volgende:
[..]
775 ondersteunt inderdaad gewoon C2D
Qua socket wel. Niet qua chipset.quote:Op zaterdag 1 september 2007 00:17 schreef SoupNazi het volgende:
[..]
775 ondersteunt inderdaad gewoon C2D
Nee. Chipset moet het ondersteunen. 775 was er ver voor de C2Dquote:Op zaterdag 1 september 2007 00:36 schreef Frumzel het volgende:
[..]
Hm, alle moederborden die 775 hebben?
Hey ja je heb gelijkquote:Op donderdag 30 augustus 2007 14:57 schreef Biogarde het volgende:
[..]
En dan te bedenken dat ze na deze serie bij Nvidia overtappen op de 9800 serie![]()
![]()
Heb je weer een 9800![]()
Daar hebben ze 1232MB meer en DDR4 voor nodigquote:Op dinsdag 4 september 2007 00:53 schreef Dibble het volgende:
btw,
[afbeelding]
deze Ati walst toch wel over alle Nvidia's heen![]()
Wat is het verschil tussen de socket en de chipset? Hoe kun je checken of de chipset ook C2D ondersteunt?quote:Op zaterdag 1 september 2007 02:12 schreef Biogarde het volgende:
[..]
Nee. Chipset moet het ondersteunen. 775 was er ver voor de C2D![]()
Maar, er zijn mobo's die het na een bios-update en/of flash gewoon ondersteunen.
Mijne is in idle toch maar 10% cpu belasting.... tevens staan er onnoembare progammas aanquote:Op dinsdag 4 september 2007 10:22 schreef Verbal het volgende:
Derde poging (ik word steeds uit FOK! geknald als ik op 'invoeren' druk.
Niet om te vloeken in de kerk, maar omdat mijn nieuwe systeem langzaamaan steeds meer realiteit dreigt te worden, toch de volgende vraag. Ik heb besloten vooralsnog niet over te gaan op Vista, ivm de nodige onbestendigheid en nodeloze belasting van geheugen en processor, alleen al 33% tijdens idlen, heb ik mij laten vertellen
Dus omdat ik in XP blijf, zal ik vooralsnog toch niet boven DX9 komen, en dus wil ik weten of ergens terug te vinden is hoe een ATI X1950 (?) zich verhoudt tot een 8800GTS 320 onder DX9. Iemand tips of zelf enig idee?
V.
95% idle? Nou dan weet ik niet wat voor troep jij op je pc hebt staanquote:Op dinsdag 4 september 2007 10:47 schreef dikkedorus het volgende:
Mijn CPU draait 95% idle onder Vista. Als je een leuke videokaart hebt is Vista sneller dan XP. Dus voor performance is Vista aan te raden, mits je hardware hebt waar Vista iets mee kan. (Ikzelf een 3500+ en een 6800GT)
Oudere games draaien vaak wel iets minder onder Vista, vooral slechte ports zoals RSV hebben het extra lastig.
Ingewikkeld he, compjoetersquote:Op dinsdag 4 september 2007 12:11 schreef KopieerMachine het volgende:
[..]
95% idle? Nou dan weet ik niet wat voor troep jij op je pc hebt staan
Socket is puur het processorvoetje, als een socket en processor hetzelfde zijn, past de cpu dus fysiek op het moederbord. De aansturing van de cpu gebeurt echter door de chipset (northbridge), die op het moederbord zit. Als deze chipset niet weet hoe hij met een bepaald type cpu om moet gaan, zal het dus niet werken, ook al past de cpu gewoon in de socket. Mogelijk zal het na een firmware upgrade wel werken, omdat de chipset dan "leert" hoe het nieuwe type processor aangestuurd moet worden.quote:Op dinsdag 4 september 2007 08:47 schreef Verbal het volgende:
[..]
Wat is het verschil tussen de socket en de chipset?
Handleiding moederbord.quote:Hoe kun je checken of de chipset ook C2D ondersteunt?
V.
OMGquote:Op dinsdag 4 september 2007 12:11 schreef KopieerMachine het volgende:
[..]
95% idle? Nou dan weet ik niet wat voor troep jij op je pc hebt staan
Wablief? ik snap niet wat je bedoeldquote:Op dinsdag 4 september 2007 16:09 schreef HeatWave het volgende:
[..]
OMG.
Ik stel voor dat je snel terug naar ONZ gaat ok?
Een C2D is het beste. E4300 icm een 8800 loopt als een raket. En zo'n 4300 kost een drol.quote:Op dinsdag 4 september 2007 16:05 schreef nigel2 het volgende:
Ik heb nu een acer T660 2.8ghz pentium D.
Welke processor moet ik nemen om het beste uit de 8800gts te halen?
Kan ik mijn drollen bij jou inleveren dan?quote:Op dinsdag 4 september 2007 16:30 schreef Biogarde het volgende:
[..]
Een C2D is het beste. E4300 icm een 8800 loopt als een raket. En zo'n 4300 kost een drol.
http://www23.tomshardware.com/graphics_2007.htmlquote:Op dinsdag 4 september 2007 17:13 schreef Verbal het volgende:
Maar zijn er ergens vgl warenonderzoeken tussen de verschillende kaarten, als in antwoord op mijn vraag?
V.
Ik vind 95% eigenlijk best veel... Ik heb, weliswaar onder XP, een idle van 99%. Of is 95% normaal onder Vista?quote:Op dinsdag 4 september 2007 10:47 schreef dikkedorus het volgende:
Mijn CPU draait 95% idle onder Vista. Als je een leuke videokaart hebt is Vista sneller dan XP. Dus voor performance is Vista aan te raden, mits je hardware hebt waar Vista iets mee kan. (Ikzelf een 3500+ en een 6800GT)
Oudere games draaien vaak wel iets minder onder Vista, vooral slechte ports zoals RSV hebben het extra lastig.
Heb je toevallig Volkswagen?quote:Op dinsdag 4 september 2007 17:25 schreef Biogarde het volgende:
Vergelijk tussen een Mercedes en een Fiat Panda.
Lees mijn post nog maar eens.quote:Op dinsdag 4 september 2007 16:29 schreef KopieerMachine het volgende:
[..]
Wablief? ik snap niet wat je bedoeld![]()
Vista zelf doet uiteraard niks.quote:Op dinsdag 4 september 2007 20:04 schreef Merovingian het volgende:
[..]
Ik vind 95% eigenlijk best veel... Ik heb, weliswaar onder XP, een idle van 99%. Of is 95% normaal onder Vista?
In combinatie met?quote:
E6750quote:
Dus mijn 5600+ @ 6000+ presteert beter dan jouw E6750?quote:Op donderdag 6 september 2007 21:08 schreef Frumzel het volgende:
[..]
E6750
2GB Kingston HyperX 800Mhz
MSI 8800GTS OC
Asus P5KC
Recom Powerstation Window (maar dat boeit natuurlijk niet)
Geen idee. Heb de jouwe niet getestquote:Op donderdag 6 september 2007 21:12 schreef SoupNazi het volgende:
[..]
Dus mijn 5600+ @ 6000+ presteert beter dan jouw E6750?
Blijkbaar wel dus, aangezien ik met dezelfde videokaart op 10200 zit.quote:Op donderdag 6 september 2007 22:03 schreef dikkedorus het volgende:
De 6000+ presteert vaak nog onder de E6600 (bijv. transcoden), dus ik gok dat een 5600+ OC de E6750 er niet uittrekt.
quote:Op donderdag 6 september 2007 22:10 schreef dikkedorus het volgende:
Welke benchmark? Elke nieuwere versie geeft lagere cijfers.
In Everest heb ik bij de CPU en memory-benchmarks ook een hogere score dan de E6750.quote:Op donderdag 6 september 2007 22:27 schreef dikkedorus het volgende:
Vreemd dat 3Dmark zulke hoge cijfers geeft.
Op Toms Hardware staan wat transcoding stats en daar trekt de E6750 de 6000+ er uit en in games blijkbaar ook.
True, aan de wilskracht ligt het zeker niet. RESTECP daar ook voor. En ze hebben een gigantische groep kopers voor zich weten te winnen de afgelopen jaren.quote:Op donderdag 6 september 2007 22:36 schreef Dibble het volgende:
Dat over die 65 nm heb je gelijk maar ik heb toch wel diep respect voor die jongens bij het AMD kamp.Oké, de 6400 mag dan een X2 uitmelkertje zijn maar toch, dat ze uberhaupt Intel proberen bij te benen zegt toch wel wat over hun wilskracht imo.
Als deze 6400+ zich kan meten met de 6750 van intel, dan zal de barcelona toch zeker wel een heel stuk sneller worden dan de 6400+ en zal vast ook wel aan de Q6*** kunnen tippen, zo niet deze verslaan.. dit wordt dagen aftellen tot de release van AMD's barcelona![]()
Veel minder complex dan een processor. Geloof me. Weleens foto's gezien van de friteuses die ze gebruiken bij Processors en GPU's?quote:Op donderdag 6 september 2007 22:42 schreef dikkedorus het volgende:
Hey een GPU is anders, maar zeker niet minder complex
Tsjah kun jij niks aan doen, wel grappig imo dat wanneer Intel met een snelle CPU over de vloer komt iedereen massaal overstapt op Intel, en als AMD een snellere heeft klaarstaan stapt iedereen ineens massaal over naar AMD, hoezo kuddegedragquote:Maar goed, ik tuin net zo hard in het marketingverhaaltje van Intel.
Blijven ze met die Barcelona btw op AM2? Of stappen ze weer over?
Nee sorrie. Vooral met SM3 en SM4 op komst zijn die dingen toch verrekte ingewikkeld. Geloof me.quote:Op donderdag 6 september 2007 22:44 schreef Biogarde het volgende:
[..]
Veel minder complex dan een processor. Geloof me. Weleens foto's gezien van de friteuses die ze gebruiken bij Processors en GPU's?![]()
Net als ATI (dus nog steeds AMD), die al voor dat de 8800GTX uit kwam liep te verkondigen dat ze de 8800-killer uit gingen brengen... En ruim een half jaar later komt daar een slap productje van de band rollen dat net aan een 8800GTS kan inhalen, laat staan een GTX/Ultra killenquote:Op donderdag 6 september 2007 22:46 schreef Biogarde het volgende:
Even over dat AMD verhaal; Intel dropt zonder poeha maandelijks gewoon een zooi processors op de markt waar AMD een award () denkt te krijgen als ze maanden van de voren een processor gaan aankondigen die hopelijk sneller is
![]()
quote:Op donderdag 6 september 2007 22:46 schreef Biogarde het volgende:
Even over dat AMD verhaal; Intel dropt zonder poeha maandelijks gewoon een zooi processors op de markt waar AMD een award () denkt te krijgen als ze maanden van de voren een processor gaan aankondigen die hopelijk sneller is
![]()
AMD
Kon het niet laten![]()
Maar goed, ik tuin net zo hard in het marketingverhaaltje van Intel.
Blijven ze met die Barcelona btw op AM2? Of stappen ze weer over?
True, ze zijn aan een inhaalslag bezig. Maar ze zijn er nog niet. Maar er komt nog een hoop mooisquote:Op donderdag 6 september 2007 22:55 schreef dikkedorus het volgende:
[..]
Nee sorrie. Vooral met SM3 en SM4 op komst zijn die dingen toch verrekte ingewikkeld. Geloof me.
Nog niet zo lang geleden waren ze kwa technologie redelijk achter op "echte" CPU, maar tegenwoordig halen ze de achterstand razendsnel weer in. Niet gek voor een business die meer omzet draait dan de hele filmindustrie bijelkaar. (En dan heb ik het alleen over games)
Ik dacht dat de HD2900XT toch meestal net iets sneller was dan de GTS (weliswaar verwaarloosbaar weinig), maar aangezien de meeste ATI fanboys toch wel een AMD in hun pc hebben, is het geheel uiteindelijk toch langzamer dan de combi C2D/GTSquote:Op donderdag 6 september 2007 23:07 schreef Biogarde het volgende:
Vaak is een stock GTS nog steeds sneller![]()
http://www23.tomshardware.com/graphics_2007.html?modelx=33&model1=857&model2=778&chart=318quote:Op donderdag 6 september 2007 23:12 schreef Merovingian het volgende:
[..]
Ik dacht dat de HD2900XT toch meestal net iets sneller was dan de GTS (weliswaar verwaarloosbaar weinig), maar aangezien de meeste ATI fanboys toch wel een AMD in hun pc hebben, is het geheel uiteindelijk toch langzamer dan de combi C2D/GTS![]()
Oke het verschilt nogal, als ik bijvoorbeeld naar Doom 3 en Dark Messiah kijk is de ATI weer sneller... Maargoed, het komt bij lange na niet in de buurt van de stoere praat die ATI had. En een XTX moet ik nog zien verschijnen, zal wel komen als de 9800GTX bijna uit isquote:Op donderdag 6 september 2007 23:17 schreef Biogarde het volgende:
[..]
http://www23.tomshardware.com/graphics_2007.html?modelx=33&model1=857&model2=778&chart=318
2 keer GTX a ¤480.quote:Op donderdag 6 september 2007 23:29 schreef Dibble het volgende:
Daarentegen zijn de kwaliteit/prijsverhoudingen van Ati toch wel zeer netjes vind ik wat grafische kaarten al betreft.Nvidia heeft nu gewoon de monopolie positie en de prijs van hun (semi DX10) kaarten vindt ik nog asociaal hoog gewoon.
Een tri fire opstelling van de 2900 XT komt gevaarlijk dichtbij de prestaties van een GTX in SLI plus dat het ook nog een goedkoper alternatief is![]()
zie
[afbeelding]
![]()
Sorry hier moet ik toch écht even op reageren.quote:Op donderdag 6 september 2007 22:30 schreef Biogarde het volgende:
AMD loopt nog steeds iedere keer een stap achter op Intel.
Komt AMD met iets nieuws, dan heeft Intel dat al een jaar op de plank liggen.
Goed voorbeeld is het procédé waarop de chips gebakken worden. Het lukt AMD maar niet deze op 65nm te bakken.
Voor de fanboys die gaan roepen; en de GPU's dan![]()
Ja, da's een heel ander soort processor. Veel minder complex.
Ik vind het niet gek hoor, 1/2 van een cpu bestaat uit L2 cachequote:Op vrijdag 7 september 2007 06:34 schreef KopieerMachine het volgende:
[..]
Sorry hier moet ik toch écht even op reageren.
GPU's zijn de meest complexe chips die er bestaan, kijk bijvoorbeeld naar het aantal transistors. Dit loopt hij moderne GPU's wel op tot 720 miljoen transistors(80nm), de nieuwste generatie cpu's heeft er nog geen 300 miljoen(65nm)
Hoe meer transistors, hoe lastiger het is om een chip te maken.
Denk ook aan de zeer geavanceerde geheugencontroller. En alles wat een GPU doet zijn zware berekeningen
Een GPU is dus zoveel meer complexer als een CPU, ook is een GPU in staat veel krachtigere berekeningen te doen ik kortere tijd, welliswaar minder 'multifunctioneel'.
Vergis je niet in GPU's, het zijn de meest ingewikkelde chips op deze hele aardbol![]()
Omdat je daar SLI/Crossfire voor hebt?quote:Op vrijdag 7 september 2007 10:47 schreef Sjibble het volgende:
[..]
Ik vind het niet gek hoor, 1/2 van een cpu bestaat uit L2 cache(ook L1 en zelfs L3 soms)
[afbeelding]
toch?
Wat ik me trouwens altijd afvraag... als CPU's nu 2 cores tot zelfs 4 cores hebben... waarom maken ze geen videokaarten met een dualcore?Ja toch?
![]()
quote:Op vrijdag 7 september 2007 13:00 schreef SoupNazi het volgende:
[..]
Omdat je daar SLI/Crossfire voor hebt?
Nerd.quote:Op vrijdag 7 september 2007 13:56 schreef dikkedorus het volgende:
[..]
Nee, een GPU is een Vector Processor. Een proc dat bepaalde berekeningen over grote hoeveelheiden data tegelijk berekent. Een GTX is eigenlijk al een 24 core CPU omdat het 24 pixelshaders aan boord heeft. Daarbij heb je nog de vertexshaders en andere losse onderdelen.
Wat je zegt ben je zelluf met je kont door de helluf!quote:
Je mobo uit die Acer zal geen C2D ondersteunen. Wil je dit zeker weten dan zal je de website moeten raadplegen. Quadcore is redelijk overbodig. Ze zijn niet sneller tenzij je 100 programma's tegelijk wil gebruikenquote:Op vrijdag 7 september 2007 15:34 schreef nigel2 het volgende:
Dus als ik het goed begrijp is een C2D E6600 sneller dan een amd 6000+.
Heeft een nieuwe processor invloed op bijvoorbeeld je werkgeheugen?
Kan je het maximale uit een 8800GTS halen met een C2D E6600?
Bij alternate is er nu een aanbieding een C2D E6750 die 179 euro is maar de E6700 is 319 euro kan iemand mij dit uitleggen (ook de E6850 kost maar 269 goedkoper dan de E6700).
En is de E6850 van 269 euro beter dan een quad core Q6600?
Ik weet niet of deze processors op mijn moederbord kunnen socket 775 dat wel maar hij komt uit een acer T660 weet iemand hoe ik dat kan zien en nee ik heb geen handleiding gekregen toen ik deze pc kocht.
Alvast bedankt.![]()
Nu nog ja, maar over een paar jaar niet meer.quote:Op vrijdag 7 september 2007 17:38 schreef Biogarde het volgende:
[..]
Quadcore is redelijk overbodig. Ze zijn niet sneller tenzij je 100 programma's tegelijk wil gebruiken![]()
Voor games volstaat een C2D prima.
Over een paar jaarquote:Op vrijdag 7 september 2007 17:55 schreef SoupNazi het volgende:
[..]
Nu nog ja, maar over een paar jaar niet meer.
Ik heb zelf een 6750 icm met 2 Ultra'squote:Op vrijdag 7 september 2007 18:26 schreef nigel2 het volgende:
Welke processor heb jij op dit moment dan biogarde?
Welke processoren kunnen dan wel op mijn moederbord:S.
Pentium D 2.8ghz is wel goed voor nu dan met mijn 7600GT xxx maar niet meer voor de aankomende spellen.
Maar pentium is zo langzaam vergeleken met C2D pentium 4 ook en ook celeron wat blijft er dan over voor mijn moederbord?
Geld teveel?quote:Op vrijdag 7 september 2007 18:34 schreef Biogarde het volgende:
[..]
Ik heb zelf een 6750 icm met 2 Ultra's![]()
Iemand getroffen met geld te weinig. Persoon in kwestie kocht die kaarten (ex showroom/beurs-kaarten) maar wilde ze weer kwijt vanwege onvoorziene uitgaven zullen we maar zeggen.quote:
Die zal dan nog steeds veel gebruikt zijn hoor.quote:Op vrijdag 7 september 2007 21:47 schreef nigel2 het volgende:
Maar is zo'n 6750 over een jaar ook nog goed dus niet geweldig maar gewoon nog goed genoeg?
quote:Op vrijdag 7 september 2007 21:50 schreef Biogarde het volgende:
[..]
Iemand getroffen met geld te weinig. Persoon in kwestie kocht die kaarten (ex showroom/beurs-kaarten) maar wilde ze weer kwijt vanwege onvoorziene uitgaven zullen we maar zeggen.
2 voor een prijs onder die van een GTX (2 voor 400 in totaal). Met factuur etc etc
![]()
Oh jawel, en hij kon onderhand wel huilenquote:Op vrijdag 7 september 2007 22:09 schreef Merovingian het volgende:
[..]
Had die gast geen idee van de waarde van die dingen ofzo
![]()
Ach, wacht maar op je stroomrekeningquote:Op vrijdag 7 september 2007 22:12 schreef Biogarde het volgende:
[..]
Oh jawel, en hij kon onderhand wel huilen![]()
![]()
Maar hij had op korte termijn poen nodig. Hij vroeg 550 en toen ik zei dat ik maar 400 had, vond hij het wel best omdat hij geen tijd had om naar een koper te zoeken die meer wilde geven/had![]()
Voor het bekijken van FPS, even het programma FRAPS downloaden. Freeware. Die start je op voor je gaat gamen en dan staan de FPS in een hoek van je scherm. Je kan er ook korte ingame filmpjes mee maken en screens.quote:Op zaterdag 8 september 2007 00:25 schreef Frumzel het volgende:
Oh, paar spelletjes gedaan al
Lost Planet op 1680x1050 ca. 40 fps
Bioshock op dezelfde resolutie draait vloeiend (kon geen fps vinden?)
Allebei op hoogste settings natuurlijk
vreet FRAPS niet onwijs veel geheugen? Bij sommige FPS recordings gebruiken ze dat niet omdat het blijkbaar framerate omlaag trekt, nog sterker zelfs, bij C2D de éne core totaal in beslag neemtquote:Op zaterdag 8 september 2007 00:57 schreef Biogarde het volgende:
[..]
Voor het bekijken van FPS, even het programma FRAPS downloaden. Freeware. Die start je op voor je gaat gamen en dan staan de FPS in een hoek van je scherm. Je kan er ook korte ingame filmpjes mee maken en screens.
Lost Planet draaide bij mij niet goed. Laatste driver etc etc, maar hij liep om de zoveel minuten compleet vast. Erg vreemd. Vond het sowieso al een kutgame![]()
-edit-
http://www.fraps.com/setup.exe
Nog nooit last van gehad. Het is een vrij klein programma. Mijn PC staat 24/7 aan met diverse programma's open, waaronder Fraps. Vaak staan er zelfs meerdere games paused in m'n taakbalk. Heb niet het idee dat er enige vorm van vertraging is door Fraps.quote:Op zaterdag 8 september 2007 01:07 schreef Dibble het volgende:
[..]
vreet FRAPS niet onwijs veel geheugen? Bij sommige FPS recordings gebruiken ze dat niet omdat het blijkbaar framerate omlaag trekt, nog sterker zelfs, bij C2D de éne core totaal in beslag neemt![]()
maar wie ben ik![]()
misschien heb je hier wat aan, Bijna dezelfde setup als die van jou.quote:Op zaterdag 8 september 2007 00:57 schreef Biogarde het volgende:
[..]
Lost Planet draaide bij mij niet goed. Laatste driver etc etc, maar hij liep om de zoveel minuten compleet vast. Erg vreemd. Vond het sowieso al een kutgame![]()
-edit-
http://www.fraps.com/setup.exe
Idd precies hetzelfde probleem en moment in de game. Alleen gebruik ik die driver nu ook en heb nog steeds het probleemquote:Op zaterdag 8 september 2007 01:11 schreef Dibble het volgende:
[..]
misschien heb je hier wat aan, Bijna dezelfde setup als die van jou.
Lijkt me toch sterk dat ze kapot zijn? Zijn het niet gewoon kaarten met minder shaders etc?quote:Op zaterdag 8 september 2007 10:54 schreef dikkedorus het volgende:
Als je dat doet heb je een kapotte kaart, dus dat heeft weinig zin
Als je je handen kan leggen op een uitgebreide tool kan je eventueel nog wat werkende shaders er tussenuit plukken, maar met de nieuwe kaarten is dat imho niet mogelijk. Pure speculatie van mijn kant dus.
Ze zijn niet allemaal kapot, alleen tegenwoordig zijn alle verbindingen van shader units verbroken met een laser.quote:Op zaterdag 8 september 2007 11:09 schreef Bron het volgende:
[..]
Lijkt me toch sterk dat ze kapot zijn? Zijn het niet gewoon kaarten met minder shaders etc?
Precies. Op mijn P4, 2,4 Ghz voor het framerate-deel niet merkbaar op BF1942. Toen ik een keer p/o op de opname-shortcut drukte. sloeg de boel wél enorm terug naar 5 fpsquote:Op zaterdag 8 september 2007 10:16 schreef dikkedorus het volgende:
FRAPS eet alleen geheugen als het filmpjes opneemt, anders is de footprint nagenoeg nul.
M.a.w. die kaarten zijn gewoon net zo duur, maar door extra handelingen (wat weer duurder is) 'goedkoper' gemaakt?quote:Op zaterdag 8 september 2007 11:24 schreef KopieerMachine het volgende:
[..]
Ze zijn niet allemaal kapot, alleen tegenwoordig zijn alle verbindingen van shader units verbroken met een laser.
Dit kán je gewoon niet unlocken, het is allemaal hardwarematig gelockt![]()
Er zullen vast cores bij zitten die best een GTX konden zijn, maar alleen hadden ze meer cores nodig voor de GTS ipv GTX(gts verkoopt beter dan GTX)quote:Op zaterdag 8 september 2007 11:29 schreef Verbal het volgende:
[..]
M.a.w. die kaarten zijn gewoon net zo duur, maar door extra handelingen (wat weer duurder is) 'goedkoper' gemaakt?
V.
Nou ja niet helemaal, de perfecte GTX chip is natuurlijk zeldzamer dan de GTS chip. Maar in feite als er een overschot is aan GTX chips, dan kunnen ze daar GTS chips van maken.quote:Op zaterdag 8 september 2007 13:43 schreef dikkedorus het volgende:
Even voor de duidelijkheid, ze maken die dingen dus niet express "kapot" voor een GTS, maar produktie van chips is erg foutgevoelig. De foute chips worden dus bekeken, en daar wordt dan, indien mogelijk, een GTS van gemaakt door de kapotte onderdelen uit te zetten. Aangezien elke GTS evenveel shaders moet bevatten, zetten ze soms wat extra "goede" cores uit zodat je niet per GTS andere prestaties hebt. Als er dus veel meet GTS chps worden gevraagd van GTX chips, moeten ze dus perfecte chips gaan slopen om GTS-en te "maken".
Vroeger kon je die perfecte GTS-versies weer terugzetten naar GTX met wat geklus. Het probleem daarmee is dat je wel zeker moet weten dat je een perfecte chip hebt, anders zet je kapotte cores weer aan met alle gevolgen van dien.
zoek benchmarks op ofzo, images.google.nlquote:Op vrijdag 7 september 2007 19:53 schreef nigel2 het volgende:
En die C2D 6750 is ook snel?
Hoeveel heb jij voor die processor betaalt?
Met die 2 ultra's zit je in ieder geval goed.
Maar wat ik dan weer niet snap..quote:Op zaterdag 8 september 2007 13:43 schreef dikkedorus het volgende:
Even voor de duidelijkheid, ze maken die dingen dus niet express "kapot" voor een GTS, maar produktie van chips is erg foutgevoelig. De foute chips worden dus bekeken, en daar wordt dan, indien mogelijk, een GTS van gemaakt door de kapotte onderdelen uit te zetten. Aangezien elke GTS evenveel shaders moet bevatten, zetten ze soms wat extra "goede" cores uit zodat je niet per GTS andere prestaties hebt. Als er dus veel meet GTS chps worden gevraagd van GTX chips, moeten ze dus perfecte chips gaan slopen om GTS-en te "maken".
Vroeger kon je die perfecte GTS-versies weer terugzetten naar GTX met wat geklus. Het probleem daarmee is dat je wel zeker moet weten dat je een perfecte chip hebt, anders zet je kapotte cores weer aan met alle gevolgen van dien.
Beter maken ze dan die GTX goedkoper, geen concurrentie meer en verkopen ze er alleen maar meer van en kunnen ze er wss zelfs meer aan verdienen. Scheelt het een core of 2, toe maar... maar wel enorm zonde om zo je GTX'jes te verspillenquote:Nou ja niet helemaal, de perfecte GTX chip is natuurlijk zeldzamer dan de GTS chip. Maar in feite als er een overschot is aan GTX chips, dan kunnen ze daar GTS chips van maken.
Meestal zetten ze de kapotte shaders uit, want anders zou je artifacts kunnen krijgen.
Maar het slopen van een GTX(waardige) chip... het is niet echt slopen. Het ''pad'' naar 1 shaderunit wordt gewoon afgesneden.
Maar het is dus niet mogelijk om van een GTS een GTX te maken (96 shaders --> 128 shaders) want ze zijn hardwarematig uitgezet. Het is écht ONMOGELIJK
Je kan dus die gelaserde verbindingen niet repareren, dat kan jij als consument gewoon niet.
Zoals de Willamette/Northwood?quote:Op zaterdag 8 september 2007 20:14 schreef Biogarde het volgende:
Same voor processors. 'Foute' gaan de budgetmarkt op.
Ik heb een E4500. Zou een Allendale zijn. CPU-Z zegt Conroe. Ik zeg; foute 6000 seriequote:
haha ik heb een 6850 serie.quote:Op zaterdag 8 september 2007 21:08 schreef Biogarde het volgende:
[..]
Ik heb een E4500. Zou een Allendale zijn. CPU-Z zegt Conroe. Ik zeg; foute 6000 serie![]()
Als we dan toch gaan patsenquote:
Spannendquote:Op zaterdag 8 september 2007 21:44 schreef Biogarde het volgende:
[..]
Als we dan toch gaan patsen
Zoek even naar een reactie van me een stukje terug![]()
Oh, je wil die quote.quote:
Happy? Mooi, gaan we door..quote:Op vrijdag 7 september 2007 18:34 schreef Biogarde het volgende:
[..]
Ik heb zelf een 6750 icm met 2 Ultra's![]()
En een systeem met een E4500 en een GTS![]()
Hm ok. Vooruit.quote:Op zaterdag 8 september 2007 21:55 schreef Biogarde het volgende:
[..]
Oh, je wil die quote.
[..]
Happy? Mooi, gaan we door..
-edit-
Niet stiekem je tekst wijzigen![]()
Eik wel jaquote:Op zaterdag 8 september 2007 21:56 schreef Bron het volgende:
[..]
Hm ok. Vooruit.
Maar dan Pwn ik nog steeds meer toch?![]()
Is er een lidmaatschap dan?quote:Op zaterdag 8 september 2007 22:25 schreef RacerDKB het volgende:
Hoezee, ik mag nu ook hier lid worden
Test Drive unlimited: Deed het eerst niet eens, zelfs op low kreeg ik maar 2fps.
Nu op ultra high zo soepel als een tiet
quote:Op zaterdag 8 september 2007 23:08 schreef Devolution het volgende:
Met een Firefox Extensie, o.a.![]()
En het kan ook met javascript, maar hoe dat precies werkte weet ik niet meer.
1 |
Heb je die demo's op nZone gevonden? Ik heb ze gewoon in de OP gevondenquote:Op zondag 9 september 2007 03:38 schreef Frumzel het volgende:
Ik ben trouwens ook nog op zoek geweest naar 3d demo's die alles uit je grafische kaart halen. Nu heb ik op Nzone wel wat demo's gevonden ("Adrianne", "Box Of Smoke" en "Froggy"), maar ik weet niet wat ik al zoekwoord moet opgeven in bijvoorbeeld Google, aangezien ik bijvoorbeeld met 3d demo's, demo's van spellen krijg.
Tja, je moet ze ergens vandaan halenquote:Op zondag 9 september 2007 09:50 schreef Merovingian het volgende:
[..]
Heb je die demo's op nZone gevonden? Ik heb ze gewoon in de OP gevonden
Wat is er nieuw?quote:Op maandag 10 september 2007 18:28 schreef Jonathon het volgende:
[afbeelding]
Nieuwe drivers!
163.67
Vista x86
Vista x64
Windows XP/2000 x86
Windows XP Pro/Server2003 x64
Misschien moet je even een apart topic aanmaken want dit is niet echt ontopic.quote:Op maandag 10 september 2007 17:26 schreef nigel2 het volgende:
Ik ben met een programma erachter gekomen wat voor moederbord ik heb het is een Acer EC516M.
Chipset ATI RC414/SB600.
Maar ik weet nog steeds niet wat de bussnelheid maximaal is of ik wel bijvoorbeeld een C2D 6750 kan hebben met bussnelheid 1333MHZ.
Dan weet ik dat ik niet zo'n processor moet kopen maar bijvoorbeeld een E6600 met bussnelheid 1066MHZ.
Weet iemand hoe ik hier achter kan komen ik heb alles afgezocht en google vind totaal niets als ik Acer EC516M intyp de naam van de moederbord dus.
Logische vraag voor het nVidia 8800 topicquote:Op maandag 10 september 2007 17:26 schreef nigel2 het volgende:
Ik ben met een programma erachter gekomen wat voor moederbord ik heb het is een Acer EC516M.
Chipset ATI RC414/SB600.
Maar ik weet nog steeds niet wat de bussnelheid maximaal is of ik wel bijvoorbeeld een C2D 6750 kan hebben met bussnelheid 1333MHZ.
Dan weet ik dat ik niet zo'n processor moet kopen maar bijvoorbeeld een E6600 met bussnelheid 1066MHZ.
Weet iemand hoe ik hier achter kan komen ik heb alles afgezocht en google vind totaal niets als ik Acer EC516M intyp de naam van de moederbord dus.
Onder meer optimalisaties voor een aantal games, zoals Bioshock. Klik op de link en je kunt precies lezen wat er verbeterd isquote:
quote:Op maandag 10 september 2007 21:04 schreef LSS het volgende:
Ik vraag me af of het veel verschil zou maken als ik mijn 7900GT vervang voor de 8800GTS. Ik heb verder een vrij zwakke cpu en geheugen namelijk een 4200+X2 socket 939 en 2048 mb ddr400 geheugen (dual channel). Zou de rest van het systeem niet te langzaam zijn voor een 8800 kaart?![]()
Plus DX10 ondersteuning.quote:Op dinsdag 11 september 2007 01:10 schreef Biogarde het volgende:
[..]
Denk dat je wel wat verschil merkt, maar dat je niet het uiterste uit die 8800 weet te halen.
SLI is nutteloos, als je hiervoor extra videokaart wilt halen nog nuttelozerquote:Op dinsdag 11 september 2007 18:17 schreef Merovingian het volgende:
Vraagje aan mensen met SLI: Als je 2 videokaarten in SLI hebt, met elk 2 DVI-uitgangen, kun je dan ook 3 of 4 schermen eraan hangen, net als dual view, maar dan dus triple of quadruple view? En dan dus gamen met bijvoorbeeld een resolutie van 5120*1024? Of kun je alleen maar 2 monitors aan je "hoofd"-kaart hangen?
Een splitter zorgt alleen voor de mogelijkheid om meerdere schermen aan te sluiten. Als je op zulke resoluties wil gamen is een extra videokaart ook wel wenselijk denk ik Al denk ik niet dat de 8800GTX er veel problemen mee zal hebbenquote:Op dinsdag 11 september 2007 18:37 schreef Dibble het volgende:
[..]
SLI is nutteloos, als je hiervoor extra videokaart wilt halen nog nuttelozer, met een één of ander splitter moet het ook kunnen denks.
Ik denk dat een 8800GTX met Crysis @ 5120*1024 alles high en dan nog zeg maar 8xAA en 8xAF ofzo wel lastig wordtquote:Op dinsdag 11 september 2007 18:56 schreef Devolution het volgende:
[..]
Een splitter zorgt alleen voor de mogelijkheid om meerdere schermen aan te sluiten. Als je op zulke resoluties wil gamen is een extra videokaart ook wel wenselijk denk ik Al denk ik niet dat de 8800GTX er veel problemen mee zal hebben
5120*1024 wat voor tft heb je daarvoor nodigquote:Op dinsdag 11 september 2007 21:16 schreef Merovingian het volgende:
[..]
Ik denk dat een 8800GTX met Crysis @ 5120*1024 alles high en dan nog zeg maar 8xAA en 8xAF ofzo wel lastig wordt
Wat dacht je van 4 losse monitors? Zoals een post of 5 hierboven beschreven staat?quote:Op dinsdag 11 september 2007 21:32 schreef Dibble het volgende:
[..]
5120*1024 wat voor tft heb je daarvoor nodig40 ich?
![]()
Och, zie je gelijk in wat er voor je, naast je en achter je gebeurtquote:Op dinsdag 11 september 2007 21:47 schreef KopieerMachine het volgende:
5120*1024
![]()
Weet je dan hoe het beeld eruit ziet man.
LOL ! dat is iets van 5:1 -> 15:3![]()
Een beetje normale aspectratio is 4:3 of 16:9 / 16:10
dat is hetzelfde als 1024*256![]()
![]()
Of je hebt 4 schermen met een reso van 1280x1024 naast elkaar staan?quote:Op dinsdag 11 september 2007 21:47 schreef KopieerMachine het volgende:
5120*1024
![]()
Weet je dan hoe het beeld eruit ziet man.
LOL ! dat is iets van 5:1 -> 15:3![]()
Een beetje normale aspectratio is 4:3 of 16:9 / 16:10
dat is hetzelfde als 1024*256![]()
![]()
Forum Opties | |
---|---|
Forumhop: | |
Hop naar: |