News GeForce GTX 295 schlägt HD 4870 X2?

Keine Berechtigung mehr. Wenn, ja wenn NVIDIA die Karte für 550€ bringt, dann sind das im guten Durchschnitt der vorhandenen 4870X2 (bei Geizhals.at) und deren durchschnittspreis von geschätzt 440-450€ (min 420 max. 500€) ca 100 Euro weniger.

100 Euro im Durchschnitt. 130€ Maximal und 50 Minimaldifferenz.

Soviel zu keine Daseinsberechtigung. Abgeshen das ich einen solchen WATTWAHNSINN absolut nicht gut finde kannst du mit 100€ noch mal ne 4830 mit ins CrossfireX stecken.

Ob das dann besser ist liegt am Spiel und am Crossfire Profil.

Sicher ist dann der Stromverbrauch wieder höher, aber bei dem was man hier liest interessiert das wenige hier.

Ich bin immer noch nur für vernünftige WATT/Leistung verhältnisse zu haben, mit relativ wenig watt wohl gemerkt.

An der stelle mach ich mal nen Abstecher zu den AMD Phenom, da ja anscheinend alle neuen Prozesseroren zur Zeit eine Quadbasis haben Kuma, X3 und X4. Wenn AMD es schaffen würde die gebrauchte Energie für jeden Prozessor wirklich abzuschalten, so dass der Kuma X2 grob (und nur GROB) die Hälfte eines X4 brauchen würde. (Schließlich ändert sich die offizelle TDP ja nicht).

Manchmal hab ich das gefühl, das auch bei abgeschalteten Blöcken auf der GPU der Verbrauch nicht so stark Sinkt wie erhofft bzw. Erwartet.

Dann wäre es doch lustig ne art NATIVES MultiGPU-System zu entwickeln. Wo man dann auch GPU-Kerne deaktiviert.



Aber das sind nur Visionen und wünsche, spekulationen und Fantasien.

Einige meiner Bemerkungen bezüglich dem Phemon bzw Kuma und desen Abstammung vom Phenom beziehe ich von

Planet3dNow
http://www.planet3dnow.de/vbulletin/showthread.php?p=3809304#post3809304

und

TomsHardware
http://www.tomshardware.com/de/Athlon-X2-7000-Phenom,testberichte-240221.html

Bin mal auf das R800 Design gespannt. Vor allem auf die Mittelkasse


Wünsche weiter noch viel Spaß beim Fachsimpeln
 
GeForce GTX 295 übertakten, dank 55nm müsste da normal viel drin sein.
die gtx 260 65nm konnte man auch schon gut hoch prügeln.
 
@ Ycon

vieleicht hast du dir nie die Testberichte angesehen aber Nvidia hat seit R300 bis G80 in keiner Generation vor Ati gelegen sondern mal mehr R300 mal weniger R4xx hinten gelegen. Dazu kamm bei
der X1k Reihe noch eine deutlich schlechterer AF. Also überleg bitte erstmal bevor du so ein Stuß von dir gibst.
 
Die Ergebnisse in Left for Dead sprechen fuer: keine Treiberoptimierung seitens der Ati / oder alte treiber.
Von KLAREM Sieger kann eigentlich keine Rede sein, es wurden ja wieder nur die beruehmten Nvidia Spiele getestet. Der Preis spielt noch eine grosse Rolle, und ich glaube nicht, dass, nachdem die neue GTX 260 bei ueber 240 rumlauert, die neue Karte so billig sein wird...
 
also die benchmarks sind sicherlich übertrieben, wie es immer ist, bei solchen vorab-infos. außerdem vermute ich hier genau wie (th) dass es sich um den alten katalyst handelt.

physx ist wohl auch klar, dass eine karte mit physx-unterstützung klar davon zieht... alles andere wäre wohl peinlich^^

was den verbrauch angeht, war eigentlich klar, dass die gtx295 sparsamer zu werke geht, da sie auf die taktraten der gtx260 vertraut (und somit wohl auch auf die gleiche spannung) und die gtx260 bekanntlich ja sparsamer ist als die 4870. ergo sind 2 x gtx260 (gtx295) auch sparsamer als 2 x 4870 (4870x2) ;) die zusätzlichen shader dürften den braten wohl nicht mehr fett machen...

darüber hinaus nehme ich auch an, dass die gtx295 eine reine luxuskarte sein wird, da sie ja dann die (zumindest theoretisch) schnellste karte am markt ist. dementsprechend wir man wohl die preise hoch ansetzen. 550,- € halte ich auch für einen realistischen preis für die karte. p/l-verhältnis interessiert in der klasse halt nicht mehr ;)

mich störts allerdings wenig, denn ich halte ohnehin wenig von diesen dual-gpu (not-)lösungen...
 
@Krautmaster:

Grundsätzlich hast du recht, es gibt noch mehr neben den Frametimes. Und das wäre der nämlich der subjektive Eindruck, welcher einfach nur Perfekt ist. Mit den alten Treibern sind inbesondere bei Drehbewegungen in Shootern alles ruckelig gewesen. Momentan ruckelt nichts.
Das einzige Problem welches gerade Probleme macht ist Fallout 3, aber das läuft auch mit einer Karte perfekt flüssig ^^
 
Ist mit dem Teil auch 3x SLI möglich?

Nein aber Quad-SLI.

Was mich aber wundert ist, dass auf der GTX 295 eine "neue" GPU zum Einsatz kommt.

MfG Pantherfibel
 
dann sieht es wohl so aus als wenn die neue gtx 260/265/270? mit 240 shader und mehr chip takt kommt und wer weis was mit der gtx 285 noch so alles ansteht vielleicht 280 US
296US oder sogar 320 US
meine mal gelesen zu habe das bis zu 520 US auf den GT200 passen würden was ich aber nicht so wirklich glauben kann
 
Vanadis schrieb:
@Krautmaster:

Grundsätzlich hast du recht, es gibt noch mehr neben den Frametimes. Und das wäre der nämlich der subjektive Eindruck, welcher einfach nur Perfekt ist. Mit den alten Treibern sind inbesondere bei Drehbewegungen in Shootern alles ruckelig gewesen. Momentan ruckelt nichts.
Das einzige Problem welches gerade Probleme macht ist Fallout 3, aber das läuft auch mit einer Karte perfekt flüssig ^^

ja, das bestreite ich auch garnicht. Das Grundproblem der Microruckler sind nicht beseitigt, aber es können sicher durchaus Verbesserungen durch Treiber eintreten. Leider hatte ich noch nie ein System dieser Art. Vllt lege ich mir Anfang 09 mit neuem Case eine 2. HD4850 zu. Die Frage ist nur, ob dann nicht die 512 MB Ram limitieren. Aber bis zu den nächsten richtigen GPU Generationen ala R800 und G300 wird das reichen müssen ;)

Bis jetzt habe ich mit NV und ihren Treibern bessere Erfahrung gemacht, und vielleicht ist NV auch was Microruckler angeht etwas weiter. Ob es Unterschiede zwischen einer HD4850X2 oder einem HD4850 Crossfire-Gespann gibt weiß ich auch nicht.
Vllt. sollte ich mir ne eigene Meinung bilden, ne HD 4850 bestellen und ggf. zurücksenden ;)
 
Aussagelose Statistiken, wie sie sonst auch AMD macht. Die wirklich Leistung liegt dann aber meisten zwischen diesen hier, und den Vermutungen der Pessimisten.
 
Naja ich sage mal vorraus, dass der Kampf unentschieden endet.
Eine alte (192) GTX260 hat mittlerweile keine chance ggn. die HD4870 1GB, bei 8AA schon garnicht.
Die GTX295 wird in den meisten Spielen schneller sein, weniger Strom benötigen,
auf der anderen Seite bei 8AA meist verlieren und mehr kosten.
 
Warum wundert dich das? es ist eigentlich logisch, eine platz und stromsparendere gpu zu verwenden für so ein monstrum

Weil ich entweder eine GTX 280 oder GTX 260 GPU erwartet hätte, aber nicht einen Mix aus beidem.

MfG Pantherfibel
 
Halo?Hallo schrieb:
@ Ycon

vieleicht hast du dir nie die Testberichte angesehen aber Nvidia hat seit R300 bis G80 in keiner Generation vor Ati gelegen sondern mal mehr R300 mal weniger R4xx hinten gelegen. Dazu kamm bei
der X1k Reihe noch eine deutlich schlechterer AF. Also überleg bitte erstmal bevor du so ein Stuß von dir gibst.


Sorry, aber anscheinend hast Du keine Tests gelesen. Ycon hat völlig Recht mit seiner Behauptung.
 
Doppelt Chip Grakas erst, wenn sie es wie bei den CPU's schaffen und den Stromverbrauch drastisch senken.
Ansonsten natürlich hammergeile Kraftwerke für den großen Geldbeutel ^^.
 
Wer zockt mit einer X2 oder GX2 schon mit optisch jämmerlichem 8xMSAA?! Ist ja ganz großes Kino, wenn alle Polygonkanten glatt sind und der Rest wie blöde flimmert. Wenn, dann gleich TSSAA oder Hybrid-Modi respektive AAA und CFAA. Alles andere ist imo Perlen vor die Säue.

cYa
 
Zurück
Oben