Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Die Karte hat ein sehr schönes Design finde ich... schön kompakt und mit einem Schutzkäfig herum.
Nachteil: Kaum ein Lüftertausch möglich, wenn überhaupt.....

Ziemlich shcnell ist sie ja, aber das in den höheren Auflösungen liegt sicher daran, dass der Karte der Speicher ausgeht. Mit AA und AF skaliert ATi auch noch um Welten besser.

Die Stromaufnahme im Desktop ist zwar niedriger als bei ATi, allerdings ist es mit ATi Tray Tools kein Problem, den Stromverbrauch DEUTLICH zu senken (undervolting, Taktraten im idle senken, ...)
 
radoxx schrieb:
Nachteil: Kaum ein Lüftertausch möglich, wenn überhaupt.....

Es wird sicherlich Alternativkühler geben. Zotac hat auch schon eine WaKü-Option angekündigt. Allerdings wird der Tausch wirklich etwas schwieriger, da man die Karte komplett auseinander nehmen muss.
 
Guten Abend,

Geile Karte und die Größe ist auch nicht zu verachten. Mit dem Kühler kann man bestimmt auch etwas übertakten in einem geregelten Maß, wenn man will oder man kauft sich später ein anderen Kühler, was dann bestimmt mit ziemlich viel "Fummelarbeit" verbunden ist.

Kann mir einer von sagen, wie man diese Art von Benchmark-Situation schafft speziell mit den Spielen (wie Assassins Creed, CoD5, Race Driver Grid usw.)? Okay ausgenommen sind Far Cry 2 und Crysis von denen weiß es, wie man benchmarken kann?

MfG letterianer
 
Zuletzt bearbeitet:
ich finds schade das die 9800 GX2 in den tests nirgends mehr auftaucht, als vergleich....
 
Naja, die werkelt irgendwo in den Bereichen der GTX 280 herum, zumindest was die Leistung anbelangt. Klar, man könnte sie natürlich aufnehmen, aber sie ist ja auch schon wieder etwas älter.
 
schliesse mich slider.sk an.

Habe selbst eine 9800gx2 und finde nur sehr wenig infos darüber.

Ich finde es nur sehr schlecht das die neue grafikkarten extrem viel strom verbrauchen.

Man braucht ja beinahe ein eigenes netzteil dafür wenn man sich manche standard netzteil in komplett pc ansieht.


DIe CPU Industrie hats vorgemacht. mehr leistung mehr kerne und das bei vergleichbar weniger Verbrauch. das ist doch was.
 
Wobei CPUs nicht so extrem parallelisiert sind wie GPUs, in einer GPU rechnen ja x kleine Kerne, in einer CPU nur max. 4. Sicher, die sind komplexer als ein einfacher Shader, aber die Anzahl gleicht das locker wieder aus. Außerdem weise ich nochmal darauf hin, dass auf der Grafikkarte ja auch noch der gesamte RAM sicht, der Strom zieht, die ganzen Spannungswandler etc. pp.

Du kannst nicht eine CPU mit einer GPU vergleichen, die CPU hat keine 1024 MB RAM integriert, keine Stromversorgung etc. daher verbraucht die auch weniger. Aber ich gebe dir insofern recht, dass sich an der Leistungsaufnahme was ändern muss, einfache Shrinks des Fertigungsverfahrens werden nicht unendlich möglich sein, wenn wir erstmal bei 32nm angekommen sind, wirds langsam eng ;)
 
was mich interessieren würde ob SLI gtx 280 schneller ist als eine 295 bzw 295 sli arg schneller ist als gtx 280 sli ??
wann sollen eig die next gen. karten von nv kommen?
vielleicht loht es sich dann wieder zusammen mit i7 aufzurüsten
 
Selbstverständlich ist GTX295 (quad)SLI schneller als normales GTX280 SLI,
immerhin rendern hier 4 statt 2 Kerne, wenn auch leicht abgespeckte.

Genauso ist GTX280 SLI in der Regel schneller als eine GTX295,
im Prinzip logisch, denn eine 295 besteht ja nur aus zwei "abgespeckten" 280ern - da hilft auch die interne SLI Lösung nicht.

Alles schön zu erkennen bei AnandTech:
http://www.anandtech.com/video/showdoc.aspx?i=3498&p=1
 
Selbstverständlich ist GTX295 (quad)SLI schneller als normales GTX280 SLI,
immerhin rendern hier 4 statt 2 Kerne, wenn auch leicht abgespeckte.
Außer den 295ern geht der Speicher aus :D

cYa
 
Kann man so sagen. Meine Karte wird bei unmodifizierter Lüftersteuerung unübertaktet immerhin leicht über 90°C warm (Crysis@ultra high) und der Lüfter brüllt sich dabei einen ab :D (bei nur ~70%). Mal sehen, was die Karte zum kommenden Sommer sagen wird.

Mfg
 
warum liefert die Karte bei Rainbow Six Vegas eine derart schlechte Leistung? Das ist ja fast schon beschämend für Nvidia. ;)
 
RS:Vegas ist wie der Vorgänger ATI-Land. Da macht nvidia einfach keinen Stich. Ist aber auch egal, das Spiel ist eh grottig :lol:.
 
Kasmopaya schrieb:
PS: Um die Sache mit dem ATI Converter mal aufzuklären: Das Teil benutzt überhaupt keine GPU Beschleunigung sondern 100% CPU. Die haben die Bildqualität so weit runter geschraubt bis eine CPU schneller war als die GPU, begünstigt durch Bugs ohne Ende. Sonst währe eine CPU nichtmal ansatzweise so schnell wie die GPU...
http://www.pcgameshardware.de/aid,6..._Avivo_Video-Converter_im_Test_mit_Problemen/

Interessant.
Und wieso hat dann meine X2 auf beiden GPUs eine Auslastung ?
Das Rätzel ist wohl schnell gelößt.
Die von PCGH sind einfach nicht schlau genug um so einen Test fachgerecht zu absolvieren.

Hab das selbe File auch mit NERO umgewandelt welches ja bekanntlich alle 4 Kerne sehr gut auslastet und es benötigtet ca 7 Minuten.
Laut meinem Screenshot ist der ATI-Converter in kaum 1 Minute fertig !

y33H@ schrieb:
"gerigfügig" ist mir nicht geläufig ... was war das noch gleich? Btw siehe Kasmopaya's Post.

Als ob man PCGH ernst nehmen sollte ! :rolleyes:
Klar ist die Qualität "geringfügig" schlechter und auch ein paar Bugs gehöhren bei einem ERST-BETA eben dazu.

Aber ich kann beim besten Willen kaum einen Unterschied zwischen dem mit NERO und dem mit ATI-Converter convertierten File erkennen.
 

Anhänge

  • ATi-Converter.jpg
    ATi-Converter.jpg
    80,3 KB · Aufrufe: 473
RS: Vegas und Race Driver: Grid sind echte ATI-Domänen, da macht ne 4870 jede nVidia nass ^^ die Frage, die mich interessiert ist, wieso das so ist. Sprechen diese Spiele auf die Vec5-Architektur der ATIs besser an oder was ist der Grund? Denn in allen anderen Spielen stimmt die Reihenfolge iin den Benches (280, 260², 4870, 260, ...)
 
Sebl schrieb:
Naja, der gewichtigste Fortschritt ist für mich die Reduzierung der Mikroruckler und deswegen liegt die Karte auch bei mir weit vor einer X2. Was bringts mir wenn ich mit einer Ati erst ab min. 45 fps flüssig zocken kann und bei der GTX schon ab 30 fps. Das sind immerhin schon 50% Unterschied

Ich glaube du hast das etwas falsch verstanden.

NV hat mit ihrem neuen Beta es endlich geschafft etwas gegen die Microruckler zu tun und es auf das Niveau von ATI zu bekommen bzw. (vielleicht) auch etwas besser aber eben nicht zu beseitigen !

Ist alles nur ein Warnehmungstest und daher recht ungenau.
 
Zurück
Oben