Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Also an der Lautstärke muss man noch deutlich arbeiten, dennoch finde ich nicht, bis auf den Verbrauch, (wobei der nicht unerheblich ist), das Nvidia hier als eindeutiger Sieger hevrogeht. Ich mein wer sich solch eine Karte kauft will auch alles auf besten Einstellungen spielen oder nicht? Bei 1600 8AA liegt die ATI deutlich vorne. Meine Empfehlung ist derzeit immernoch die ATI dazu kommt noch der Preis.
 
Zuletzt bearbeitet:
Den Test finde ich echt spitze.
Ich hätte gerne noch die Benchmarks zum Spiel Oblivion gesehen und Gothic 3.

Der neue Treiber für die Nvidia Geforce GTX 295 ist bereits freigegeben.
Also der mit der Versionsnummer 181.20...
 
Ich kann verstehen, das diese brachiale Leistung ihren Hunger mit sich bringt. Das Produkt wäre durchaus interessant. Jedoch kümmert man sich nicht um den Idle Verbrauch.

Dieses System braucht laut meinem Messgerät nahezu die selbe Leistung im Idle Modus wie mein System unter Last.

Die Lautstärke ist auch jenseits von Allem was zu dulden wäre.

Die Schuld liegt aber auch an der schlechten Programmierung der Spiele, welche heutzutage weder optimiert werden noch Patches gegen Speicherlecks bekommen.

Es wird Zeit die Frequenz der Chip,Shader und der RAM Einheiten als Funktion der Framerate einzuführen. 60 FP/s als Maximum und dann werden die Einheiten 1/60 mal in der Sekunde mit dem Takt heruntergefahren bis mehr Leistung gefordert wird.

Wenn ich heute ein älteres Spiel spielen möchte, dann beginnt meine Grafikkarte trotz der Kindergeburtstag Grafik zu heulen als Ob sie GTA4 rendert. Das Spiel, welches sie eigentlich im Idle Modus mit mehr als 100FP/s darstellen könnte, quält die Karte bis sie irgendwann den Hitzetod stirbt.

Natürlich kann man hingehen und mit Programmen am Takt schrauben bevor man Pipifax Spiele startet aber dass ist wie Selbstbefriedigung...

Ich bleibe meinem Motto jedenfalls treu, dass ich nur dann aufrüste, wenn die neue Hardware bei selbem Verbrauch die doppelte Leistung bringt.
 
H3rby schrieb:
Also man kann ja gerne andere Ansichten haben, aber diese?


Ich würde eher sagen, dass die Leistungsaufnahmen Top ist und die Lautstärke ein Flop, alles andere gleicht sich in etwa aus.

Nicht vergessen darf man hier, dass Nvidia mit dem neuen Treiber ganze Arbeit geleistet hat, denn das Thema Microruckler sehen alle Berichte sehr positiv. Was hilft es einem also, dass die 4870 X2 "nur" ein wenig zurück ist bzw. bei 8xAA (wie immer) leicht vorne ist, wenn man bei der GTX295 bei 30FPS gefühlt so flüssig spielen kann wie bei der 4870 X2 bei 35FPS?

Und wenn man, wie hier öfters angepriesen, die 4870 ja auch unter 2D schon runtertakten kann, so muss man sagen, dass man vorallem die Lautstärke, die bei beiden Dual-GPU-Karten einfach viel zu hoch ist, dank Lüftersteuerung ordentlich reduzieren kann und die Übertaktbarkeit beeindruckt schon sehr!!

Allerdings muss man auch sagen, dass ATi mit dem neuen 9.x Treiber ordentlich zugelegt hat, wobei ich mich frage, ob man da nur die 4870 X2 bedacht hat, oder alle Karten der 4000er Serie.


Alles in allem sind 45W Unterschied eine große Menge bei diesen beiden Karten und 70€ sind es ebenfalls! Hier müßte jeder für sich entscheiden, was ihm mehr wert ist.
Bei der Leistung sehe ich Nvidia dank optimierten Microrucklern klar vorne, bei der VC-1-/H.264-Wiedergabe dafür ATi klar.

Kurz: Jede Karte hat ihre Stärken und Schwächen.

Ja, mag sein, aber nach einem halben Jahr Verspätung hätte ich mir ganz einfach mehr erwartet.
Das man sie gut Übertakten kann ist natürlich ein Vorteil.
Das mit den Microrucklern wird mir zu sehr gehyped, damals als ich noch ein Crossfire System hatte hab ich sie eigentlich (offensichtlich) nur bei Crysis bemerkt.
Ist halt sehr subjektiv das Thema mit den Microrucklern.
Ich bleib dabei, ich würde sie mir nicht holen. Zu wenig Vorteile und da wo es drauf ankommt, bricht sie (relativ stark) ein.
Das mit dem Flop war eventuell bißchen zu hart ausgedrückt. ;)
 
Reicht eigentlich noch ein BeQuiet 550W Netzteil für diese Karte, wenn man einen Q6600 hat und 3 Festplatten?
 
Dann ist es die Hotfix und nicht die Cat 9.1 beta oder habe ich recht?
 
Die Karte hat genaudie Performance die man erwartet hat. Dass sie schneller ist als die Radeon 4870 X2 war absehbar denn ein SLI-Gespann von 2 GTX 260² war ja schließlich auch schneller als die 4870 X2.
Diese Grafikkarte interessiert mich aber eher weniger da sie etwas mehr kostet als mein Lohn hergibt und sie auch sehr viel Strom verbraucht (trotz 55 nm-Herstellungsprozess).
Was jedoch dieser Test wirklich erstaunliches hervorgebracht hat ist wie die beiden Hersteller doch an ihren Treibern entwickeln. Dafür kriegen beide Firmen ein dicken Daumen. :daumen:
Erstens Nvidia führ die Optimierungen an der SLI-Technik zwecks Microruckler und zweitens ATI für die generelle Treiberoptimierung bezüglich Performance. (30-40 % in Crysis Warhead mehr nur dank Treiber (überlegt euch das einmal normalerweise wäre dass schon eine neue Grafikkartengeneration))
Also ich finds einfach nur geil wie die sich echt in Zeugs hängen.
Natürlich auch ncoh großen Dank an CB für den sehr ausführlichen Test (mit allerneusten Treibern sogar bei ATI (damit auch die Fanboys Ruhe geben die immer sagen dass der spezielle Treiber fehlt ....:D ))
Und natürlich auch der Dank an CB dasssie diese Problematik immer lang und breit in jedem Artikel angesprochen haben, denn ohne Kritik kann nie eine Besserung erfolgen.

Mfg Mordaret

edit: @CB: Gibts eigentlich so ( hohe! ) Performance-Gewinne auch auf den Single-ATI's?
 
Zuletzt bearbeitet:
theorist schrieb:
Was habt ihr denn am Preis auszusetzen, 440€ für die GTX 295 sind doch ok.

bitte? :freak:


Insgesamt recht durchwachsen... gerade bei High Quality Federn zu lassen... naja wozu kauft man sonst so eine Karte? Einzig beim Verbrauch bin ich positiv überrascht worden, ansonsten hätte ich die Karte weiter vorne eingeschätzt.

Lob an AMD so zu kontern... den Preis ein gutes Stück gesenkt und dann noch dazu die offenbar wirklich tollen 9.x Treiber... bin schon auf finale Tests mit dem neuen Treiber gespannt, auch was die Performance von SingeGPU Karten betrifft.
 
PiEpS schrieb:
Ja, mag sein, aber nach einem halben Jahr Verspätung hätte ich mir ganz einfach mehr erwartet.

Hast du auch mehr erwartet von ATi, nachdem Nvidia fast 18 Monate lang mit der 8800 Ultra die Charts angeführt hat?

Und wenn du selber die Microruckler bemerkt hast, dann weißt du ja, wie störend das sein kann.. Und richtig störend wird es, wenn man die Grafikoptionen fast auf das Niveau der Single-Karte zurück schrauben muss, damit man das gleiche Spielgefühl hat mit der Dual-Karte..

Also wenn du dir die GTX295 nicht holen würdest, dann sicherlich auch nicht die 4870 X2, richtig?


Interessant wird es hier erst, wenn die erste GTX295 mit 2 x 1536MB VRAM raus kommt.. :king:
 
pookpook schrieb:
Dann ist es die Hotfix und nicht die Cat 9.1 beta oder habe ich recht?

Bei ATI ist der unter 8.12 HF gelistet ;)

Wichtig ist das es die 8.561.3 Version ist (sieht man im CCC auch)


H3rby schrieb:
Allerdings muss man auch sagen, dass ATi mit dem neuen 9.x Treiber ordentlich zugelegt hat, wobei ich mich frage, ob man da nur die 4870 X2 bedacht hat, oder alle Karten der 4000er Serie.


.

Bringt auch bei allen Singlekarten (ab HD2xxx) was (bis zu 22% in Warhead z.b.)


AMD has been able to provide us with a beta version of the forthcoming Catalysts which will now be multithreaded in some DirectX 10 applications. They carry the numbering 8.561.3 and seem to be an optimisation that will be integrated as of Catalyst 9.1.


http://www.behardware.com/news/lire/07-01-2009/
 
jonesjunior schrieb:
440Euro -> 880DM in echter Währung.
OK der Releasepreis ist immer sehr hoch , trotzdem senkt Nvidia nur selten die Preise.
Mal schauen wie lange es dauern wird bis die Graka unter der 400Euro Grenze liegen wird.

Zieh mal von den 880 DM ca. 2% Inflationsrate pro Jahr ab (und das ist schon nett), dann landest Du bei 774,44 DM und dann sieht es schon anders aus. Diese Umrechnerrei ist so albern, dass Geld war vor X-Jahren sowieso mehr wert.
 
Könnte es sein, dass ATI mit dem neuen Treiber den Sideport aktiviert hat ?
 
y33H@ schrieb:
Unter Vollast (aka Furmark) ist die X2 ja auch lauter ...

cYa

ein auto fährst du auch nie/fast nie mit 7000touren? Mach des mal einen monat im sommer und du kannst mal versuchen den hersteller zu verklagen, aufgrund von verschleiß und mangelnder stabilität und kühlung. wieso geben die autohersteller dann nicht den maximalverbrauch an, sondern den durchschnittsverbrauch? Oder klag ihn wegs des Verbrauches an, bzw bezeichne seine Aussagen als falsch.

genauso wenig wird auch eine ati in echten spielen ausgelastet,selbst wenn 100% gpu last bestehen, furmark ist und bleibt übertrieben. überleg mal...

es gibt kein spiel und wird auch nie eins geben das die radeon zu 100% auslasten kann,somit sind furmark lautstärken fern jeder realität,da in spielen so eine lautstärke nie erreicht wird. genauso wie die verbrauchsmessung.


ist jetzt nix gegen dich,aber furmark ist nun mal ein schmarn... wenn ich sowas wie den ultra heat test lese, also hardware die speziel dafür ausgelegt ist die hardware maximal aufzuheizen, bei gleicher GPU last, dann denk ich mir meinen teil. Welcher Hersteller programmiert denn je so eine anwendung, genau solche leute, die auch ein C++ program schreiben das deinen rechner schrottet und dann auch windows wegs mangelnder sicherheit beschimpfen

H3rby schrieb:
Interessant wird es hier erst, wenn die erste GTX295 mit 2 x 1536MB VRAM raus kommt.. :king:

die 9800GX2 gabs au nie mit mehr speicher?


also insgesamt enttäuscht mich die karte ein wenig von der Leistung her. Sie hat zwar in 8xAA aufgeholt und der leistungshunger ist für so eine karte gut, allerdings gerade für die Einstellungen und auflösungen einer solchen karte mit zu wenig speicher ausgestattet. Somit nur für den längeren Balken gut, wie Kollege Unyu gerne sagt.

Lob verdient allerdings die Microrucklersache, hoffe AMT kann/wird da nachziehn, sonst hat die GTX295 einen wirklichen Vorteil.


gruß
 
Zuletzt bearbeitet:
Wie erwartet ist das Preis-Leistungs-Verhältnis richtig gruselig.
Ich frage mich wirklich, warum so viele nach der Karte lechzen.

Abgesehen davon find ich's ziemlich blöd von CB das P/L-Verhältnis zwar für die absurden
2560x1600 4xAA/16xAF anzugeben, aber nicht für den aktuellen Standard bei 1280x1024 Pixeln.
Nunja, so lässt sich eben besser "hypen"...
 
"...war Nvidia ungemütlich. Das ist der Rückschlag"

Also ich finde für 500€ leistet die sehr wenig:
Die GTX280 ist 20% schneller als eine HD4870.
Die GTX295 liegt alle Einstellungen berücksichtigt auf gleichem Niveau der HD4870X2.
Zusätslich hat sie weniger Speicher.

Ich finde Nvidia ist mittlerweile nicht mehr als ein Name,
die Preise waren ohnehin schon immer sehr teuer und hoch, doch vor einem Jahr und mehr kriegte man noch richtig High-End Hardware.

Meiner Meinung nach geht es ihnen in moment nur noch um den Kampf,
Vernunft ist das hier nicht mehr,
-auch die Temps bei der GTX280 waren viel zu hoch, dabei war die Kühlung so dick, wie sie gerade noch in den Tower passte.

Glück auf AMD
 
Wieso bricht die angeblich schnellste Graka auf dem Markt ausgerechnet in hoher Auflösung respektive hohen Qualitätseinstellungen dermaßen ein. Wer kauft eine GTX295 um mit 4xAA (:freak:) und 1280er/1680er (:o) Auflösung zu zocken? Unglaublich!
 
skcusBC <- schrieb:
Wie erwartet ist das Preis-Leistungs-Verhältnis richtig gruselig.
Ich frage mich wirklich, warum so viele nach der Karte lechzen.

Abgesehen davon find ich's ziemlich blöd von CB das P/L-Verhältnis zwar für die absurden
2560x1600 4xAA/16xAF anzugeben, aber nicht für den aktuellen Standard bei 1280x1024 Pixeln.
Nunja, so lässt sich eben besser "hypen"...


von so einer karte profitieren nunmal Besitzer von 30 zöllern am meisten :)
ich überleg schon meine 3870x2 auszutauschen
 
Von der GTX 295 hätte ich mehr erwartet, da bin ich ja froh eine X2 zu besitzen da bei mir die Qualität zählt.;)

Frames spielt bei beiden ja keine Rolle (Abgesehen von den schlecht Programmierten Spielen [Crysis])
 
Zuletzt bearbeitet:
Zurück
Oben