myoizo schrieb:
wär nicht schlecht, wenn crysis @max endlich mal flüssig laufen würde. meine gtx295 ruckelt selbst ohne aa/af (@2560x1600, very high) fröhlich vor sich hin ^^
Ist aber auch logisch das mit so einer schlechten Karte (Verhältniss GPU/RAM) Crysis fröhlich das ruckeln anfängt! Und gerade bei Crysis kommt ja noch dazu das es nur Spaß macht wenn die Shader geglättet werden und das wird in schönen Auflösungen wohl erst die nächste GPU Generation (die nach Cypress/Fermi) schaffen.
GunBot schrieb:
Wenn es dir das Geld wert ist, und du nur frames jagst dann vielleicht schon.
Aber ich konnte mit meiner 8800GTX fast alles auf 1680x1050 mit hohen Details spielen, ob ich dann 30 oder 36 FPS hab is mir da egal.
Wenn man die Teile selbst zahlen muss überlegt man dann halt, aber wenn Papi zahlt kann ichs verstehen...
Gerade wenn man NICHT nur Frames jagt sollte man doch öfter wechseln!
Als Beispiel mal die neue ATI, hätte ich die alte 4870 X2 hätte ich sicherlich noch bei den meisten games tolle FPS, aber ich hätte kein DX11, Powerplay, SSAA, AF .................
Die einzige Generation die man lange halten konnte war imho die der 1900XTX oder der 8800. Aber auch nur weil DX 10 (im falle der ATI) eh egal war und sich überhaupt nicht durchgesetzt hat aufgrund von Vista und weil damit seit DX9 zig Jahre kein Sprung mehr in der Grafik getan wurde.
Aber alle anderen Generationen konnten sich das nicht leisten wenn man gute IQ haben wollte. Angefangen bei umstieg 16 auf 32bit weiter über TnL, DX8 Pixel Vertex Shader, DX9 Unified Shader. All das waren Sachen wofür man zwingend eine Karte der aktuellen Generation (nach Tick/tock also entweder ein tick oder tock) haben musste um sie nutzten zu können.
DUNnet schrieb:
Warten angesagt
mal sehen was das Monster mit 3GB Verbrät und gucken was Benches vs. ATi HD5800 sagen!
Die Theoretischen Werte würden, wie bei ATi auch -.-, 100% Mehrleistung versprechen und nVidia ist der Partner wo ich keine Speicherbandbreitenlimitierung vermute
Dann schau dir doch mal die Speccs an die bisher bekannt sind! Soviel dann zu deiner Theorie! ^^
DUNnet schrieb:
Das der GT300 um einiges mehr Strom zieht ist ja kein Geheimnis, intern heißt er bei Nvidia "Reaktor"
Die wissen selber das der nicht sparsam sein wird. Er wird wahrscheinlich max. 20% schneller sein als eine 5870, dafür wird der so um die 400 - 450€ kosten, mehr Strom benötigen im idle und unter load und von Features wie Eyefinity träumt man bei Nvidia.
Ähm ich denke das "Reaktor" doch wohl eher ne Anspielung auf die Leistung sein soll als auf den Stromverbrauch, oder denkst du der Atom oder Ion ist auch ne Anspielung auf den Stromverbrauch!?
Fermi wird mit Sicherheit viel viel mehr kosten, glaube du kannst da eher von vierstelligen € Beträgen ausgehen, da er ja für den HPC Markt ist und nicht für consumer. Das mit dem Strom ist natürlich wiedermal nur n Gerücht ohne Fundament, er wird sicher gut Strom ziehen (unter load) aber auch dementsprechend Leistung liefern. Und Eyefinity hat zwar ATI aber Nvidia hat dafür ihr 3D Gedöns was ATI wieder nicht hat, das hält sich imho die Waage und kommt auf den User an was er bevorzugt. Ich für mich würde ja 3D bevorzugen da ich den Rand bei Eyefinity mit heutigen Monitoren nicht abkann, aber anderen geht es sicherlich anders.