Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Ja bist du deppert, die geht ab!
Für die Leistung legte man vor 5 Jahren noch 100.000 Euro auf den Tisch...wenn man die Leistung vor 5 Jahren überhaupt irgendwie bekam...

400 Euro...dafür bekam man einst nicht mal eine 3dfx Karte...
 
Das du Nvidia Karten bis aufs blut verteidgst sollte ja jeden klar sein.
Ähm ... GTX 295 = MGPU = crap. Die 295 ist in meinen Augen genauso Schrott wie die X2. Eher zocke ich gar nicht als mit Input-Lag und µRucklern.

Btw benenne ich Fakten ... meine Aussage ["Overall ist die GTX schneller und diese hat weniger stark ausgeprägte µRucker"] findest du in anderen Worten übrigens im CB-Fazit.
Die Performance der Nvidia-Karte liegt im Schnitt über der der ATi [...] die Mikroruckler, die Nvidia mit aktuellen Treibern auf ein gesundes Maß reduziert zu haben scheint
Also überlege dir, wen du als Fanboy bezeichnest! :mad:

cYa
 
Zuletzt bearbeitet:
Also ich bin derzeit etwas unglücklich mit den Benches, aus zwei Gründen:

der neue ForceWare ist scheinbar nicht ganz fehlerfrei, so bricht bei ihm die Crysis Warhead-Performance ziemlich ein und produziert Bildfehler, mit dem alten gabs diese Probleme wohl nicht, siehe den Test von PCGH: http://www.pcgameshardware.de/aid,6...120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/?page=2

Hinzu kommt, dass die Ergebnisse irgendwie nicht stimmig sind. Vergleicht man z. B. Stalker auf 1680x1050 mit 4xAA/16AF:

CB-Test:
4870 X2: 21,2 fps
GTX 295: 25,2 fps

PCGH-Test:
4870 X2: 24,5 fps
GTX 295: 18,8

Mir ist schon klar, dass jeder Test andere Ergebnisse liefert, aber sollte nicht zumindest die Tendenz dieselbe sein, immer hin wurden die gleichen Treiner verwendet? Irgendwie ist das alles sehr seltsam.

Stefan
 
Sehe ich genauso, man kann auch ohne microrukla etc. zocken. Da nimmt man halt ne 4870 oder sowas.

Prozzis:

1.INTEL
2.AMD
Graka:
2.ATI(AMD)
2.NV

@stna1981: Es ist schwierig verschieden Benches zu vergleichen!!!Ich sag nur Testystem, Treiber, Spiele(Version), Modi, Anzahl gemachter Benchmarks, desto anders ist auch das GESAMTRATING.
 
Zuletzt bearbeitet:
@ stna1981

CB testet imo nur mit MSAA, PCGH aber hat zudem Transparency-AA aktiviert, welches auf der Radeon dank DX10.1 schneller (und qualitativer) ist.

cYa
 
Kasmopaya schrieb:
Gut das du es ansprichst, die GTX 295 ist in Sachen GPGPU viel schneller wie eine HD 4870 X2 und verbraucht erheblich weniger Strom, hat also auch noch die bessere Watt/Performance. Bei GPGPU geht vorallem um Treiber und Software, und auf dem Gebiet macht NV keiner was vor, sieht man auch schön an den Fortschritten bei den µRucklern. Noch 1-2 Treiber uns sie sind ganz weg? Bin ja gespannt wann ATI dann nachzieht...
ATI Stream ist auch noch extrem mager und ineffizient...

MfG Kasmo

ich Frage mich wo bitte der erhebliche Unterschied im Stromverbrauch ist? wer seine Kaufentscheidung wegen dem Stromverbrauch macht ist in dieser Kategorie sowieso fehl am Platz :lol:

idle
Nvidia GeForce GTX 295 178
ATi Radeon HD 4870 X2 190

last
Nvidia GeForce GTX 295 400
ATi Radeon HD 4870 X2 445
 
Zuletzt bearbeitet:
hi nochmal!

bin mir nicht sicher ob die meisten die test analysiert haben oder nur den "längeren" (balken) gesucht haben...

kann vlt. einer von den experten erklären wie die X2 bei call of juarez 2,5 mal schneller ist wie die normale 4870 ?
(also wenns kein fehler ist, dann stinkt es gewaltig. ich erinnere mich noch an gewisse qualitätskastrationen, sogenannte optimierungen)

danke im vorraus


mfg
cor
 
donti schrieb:
ich Frage mich wo bitte der erhebliche Unterschied im Stromverbrauch ist? wer seine Kaufentscheidung wegen dem Stromverbrauch macht ist in dieser Kategorie sowieso fehl am Platz :lol:

idle
Nvidia GeForce GTX 295 178
ATi Radeon HD 4870 X2 190

last
Nvidia GeForce GTX 295 400
ATi Radeon HD 4870 X2 445


https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Nur das bei GPGPU die Grafikkarten noch viel mehr belastet werden als bei den Messungen mit Spielen oder Benchmarks. Bis zu 100%! Und genau dann zieht eine HD 4800 noch mehr und hat trotzdem weniger Leistung. Außerdem muss das ganze so effizient wie möglich sein, damit die Kühlung noch funktioniert, Netzteil ist auch nicht unendlich belastbar.

Am Schluss zählt vorallem die Software und die Schnittstelle -> CUDA
Darum ist es auch immer so unsinnig wenn man bei GPGPU mit den theoretischen GFlops der HD 4800 ankommt...

Beispielrechnung:
45Watt Unterschied zwischen GTX 295 und HD 4870X2 unter last bein Spielen. Ca. 70Watt Unterschied bei GPGPU bzw. 100% Auslastung. Das ganze 4x = 280Watt. Ungefähr 280Watt braucht die X2 in einem OCTA-GPGPU Setting(8 GPUs) mehr, bei erheblich weniger Rechenleistung. In einer Serverfarm stehen aber nicht nur 1-2 Rechner. ;)

MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Nur das bei GPGPU die Grafikkarten noch viel mehr belastet werden als bei den Messungen mit Spielen oder Benchmarks. Bis zu 100%! Und genau dann zieht eine HD 4800 noch mehr und hat trotzdem weniger Leistung. Außerdem muss das ganze so effizient wie möglich sein, damit die Kühlung noch funktioniert, Netzteil ist auch nicht unendlich belastbar...

Am Schluss zählt vorallem die Software und die Schnittstelle -> CUDA
Darum ist es auch immer so unsinnig wenn man bei GPGPU mit den theoretischen GFlops der HD 4800 ankommt...

Beispielrechnung:
45Watt Unterschied zwischen GTX 295 und HD 4870X2 unter last bein Spielen. Ca. 70Watt Unterschied bei GPGPU bzw. 100% Auslastung. Das ganze 4x = 280Watt. Ungefähr 280Watt braucht die X2 in einem OCTA-GPGPU Setting(8 GPUs) mehr, bei erheblich weniger Rechenleistung. In einer Serverfarm stehen aber nicht nur 1-2 Rechner...

MfG Kasmo

und was hat das für eine Relevanz für den normalen Käufer dieser Karte? Du wirst mir denke ich mal nicht wiedersprechen wenn ich sage, dass GPGPU die meisten Käufer dieser Karten nicht interessiert :)
 
Marius schrieb:
Ja bist du deppert, die geht ab!
Für die Leistung legte man vor 5 Jahren noch 100.000 Euro auf den Tisch...wenn man die Leistung vor 5 Jahren überhaupt irgendwie bekam...

400 Euro...dafür bekam man einst nicht mal eine 3dfx Karte...

Wie kann man nur so einen Müll von sich geben? Mal ohne den Kommentar zur 295 zu beachten: Ich hatte die erste 3DFX Karte sehr bald und die hat mich ca. 250€ gekostet. Ich denke keine 3dfx war je so teuer, außer vielleicht jene die nie auf den Markt kam :lol:

@ donti
Noch interessieren sich wenige dafür aber ich gucke schon seit ca. 2 Jahren auf diese Entwicklung da beispielsweise Movielooks von RedOrb schon so lange die GPU nutzen kann und diese Effekte im Videoschnitt mit der CPU einfach nicht zu bewältigen sind. Sogar jetzt mit meinem Quad würde ich bei Spielfilmlänge mehrere Tage brauchen. Mit GPU-Hilfe nur einige Stunden. Genau so wirds auch noch in vielen anderen Bereichen werden, vor allem mit HDV.
 
Zuletzt bearbeitet:
@DvP

ich würde mich selber freuen wenn es deutlich mehr Anwendungen geben würde die es unterstützen, leider ist es noch nicht soweit und weil auch wenig darüber berichtet wird, geht das Thema auch meistens unter
 
Ja ... aber mit einem anderen Converter :freak: Augen auf!

cYa
 
DvP schrieb:
@ Pickebuh
Schonmal das Wort "Fanboy" gehört? Von einer ernsthaften Diskussion ohne den Jungs die diesen Titel tragen dürfen, haben wir alle mehr.

Meine Rede ! ;)

Ich kann Fanboys auch nicht ab.
Das ist mir zu einseitig.

Ich zitiere mich mal selber:

Pickebuh schrieb:
Hatte mit ihr schon geliebäugelt und gedanklich meine X2 bei ebxx vertickert. Schließlich war sie bei den NV-Vorabtests deutlich stärker und das ebenfalls bei Qualitätseinstellung !
Teilweise sogar doppelt so schnell... :freaky:

Man muß eben unvoreingenommen beide Seiten abwägen und sich dann für das Bessere Produkt entscheiden.
Leider schneiden die GTX295 nicht so stark ab wie es versprochen wurde.

Das Ist einfach Fakt !
 
@ Marius
Mit solchen Ansichten solltest du Philosoph werden und so weit ich weiß war die Inflation nie höher als 3%

Ich hab damals für das Geld Computerspiele auf meinem PC sehen können wie ich sie mir nichtmal ansatzweise vorstellen konnte, so siehts aus! Wenn ich jetzt mal 400€ für Graka bezahle, sollte was ähnliches passieren ;-) Wäre zumindest super *träum*
Ansonsten bezahle ich 150-200 und sehe auch Spiele mit super Grafik. Die Preise für Grakas auf denen alle neuen Spiele wirklich gut laufen finde ich auch ok aktuell, so viel sollte von mir aus mal gesagt werden. Da hab ich schon ganz andere Zeiten Erlebt. Beispielsweise wo nur eine MX aus dem Hause nVidia leistbar war und da lief nix anständig.
 
y33H@ schrieb:
Ja ... aber mit einem anderen Converter :freak: Augen auf!

cYa

Das ATI bei Steam einen eigenen Converter benutzt ist wohl sonnenklar.
Oder ist das jetzt ein Verbrechen das ATI einen eigenen Converter für ihre Steam-Applikation verwendet ?

Wie soll denn das sonnst funktionieren ?
 
Zurück
Oben