Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Umgestiegen bin ich von einer GTX260-192 (XFX GTX260XXX). Die GTX295 ist schon massiv laut. Ok, @idle kann man eingreifen, aber da die Karte bei Volllast bei ca. 60% Lüfterdrehzahl schon sehr laut wird und dabei bei mir ca. 85°C erreicht, ist hier nicht viel zu holen mit einer manuellen Lüftersteuerung. Ich verweise da mal auf den nächsten Sommer :rolleyes:. Ingame bemerkt man die Karte auch bei "lauten Spielen" stehts als Hintergrundrauschen, was bei Actiontiteln à la Crysis aber weniger stört.
Mir ist noch was merkwürdiges aufgefallen: mein System schaltet sich bei Crysis schon bei den ersten Intro-screens (Crytek-logo etc.) oder spätestens wenn ich ein Spiel starten will ab, wenn ich vsync nicht aktiviert habe. Fraps zeigt hier framerates von bis zu 4500fps. Anscheinend kommt dir Karte dann mit dem Wechsel auf normale Bildwiederholungsraten nicht klar. Sie fiept bei den extrem hohen framerates auch noch extremer als meine GTX260.

Mfg
 
Also nicht soo glücklich damit, habe meine HD4870 512 gegen eine Sapphire HD4870 1GB Eigendesihn getauscht um Aufpreis 35 Euro, immer Leise auch beim Zocken und max. 68-70 Grad warm. Da bin ich nun schon zufrieden damit, sehr sogar!
Obwohl ich der GTX 295 schon eine Chance geben wollte, aber es kommt ja der Frühling - Herbst und dann ist sicher nicht unter 60% zu denken, vielleicht gar mehr Lüfter geschwindigkeit bei weiteren Treibern,- und dies würde mich zu viel stören.
Dann lieber bis Herbst warten auf die 40-er Karten.
 
Schinzie schrieb:
Mehr.

Um wie viel ist der GT200 schneller als der G80? nicht mal um dem faktor 2
Mit SSAA schon.

ich weiß, bei Nvidia kommen sie in der selben Spanne grad mal auf den 2fachen entwicklungsstand
Das du den Schritt G80->GT200 mit R5xx -> RV770 vergleichst ist interessant. Ist ja fast der gleiche Zeitraum, bis auf 1 Jahr.

wenn man sich überlegt, dass diese dreifache leistung des RV770 gegenüber eine 1900 nochmal mit dem faktor 1,5-1,8 multipliziert wird
Blödsinn.
Hast du selbst mal erkannt, das man von Fake FPS etwas abziehen muss, um vergleichen zu können. Nebenbei wäre Faktor 1,8 Fake FPS bereits eine göttliche Skalierung.
https://www.computerbase.de/forum/t...-singlegpu-nutzer.458463/page-19#post-5045091
Selbst deine 10% sind noch zu wenig.
Die BQ hat sich auch seit der 1900 leicht verbessert
Verschlechtert.
Auch AI deaktiviert weniger Optimierungen als früher.

was hat sich seit dem G80 verbessert, nichts...
Leider nichts, gab ja keine Anlass.
 
Zuletzt bearbeitet:
Ich glaube nicht, dass es Sinn macht bzw. überhaupt möglich ist, mit gewissen Leuten hier sachlich über so etwas zu diskutieren, und du bist einer davon. Wenn ich mir deine Beiträge durchlese gewinne ich immer mehr den Eindruck, dass du entweder von nVidia bezahlt wirst, AMD schlecht zu reden, oder einfach ein dickköpfiger Fanboy bist, der sich seine Wahrheiten und seine Argumentation derart zurecht bastelt, dass er sich in seiner abwegigen Meinung auch noch bestätigt sieht. Eigentlich ist aber der einzige, dem du etwas vormachen kannst, du selbst. Mehr habe ich und werde ich dazu nicht mehr sagen.
 
Wenn er mich gemeint haben sollte, so bitte ich zu erfahren was mein Fehler war.
Auf Schinzie zu antworten, mit Fakten im Gepäck ist scheinbar nicht erwünscht.
Ich könnte wetten, wenn ich auf einen der anderen 20 mir hier bekannten"AMD zugeneigten" antworte, richtest du den Finger auch auf mich.
Der Satz "ich habe gesprochen", ist immer gut, dadurch muss man seine Aussage nicht rechtfertigen, sie wird automatisch richtig.
 
Zuletzt bearbeitet:
Ich wills kurz machen:

Du wirfst mit Schein-Argumenten um dich, die keine sind. Wen interessiert es, wenn die GTX 280 um den Faktor 2 schneller ist als die 8800, aber nur wenn ich - wie von dir angegeben - SSAA verwende, was in der Regel niemand macht. Genau so gut könnte man hingehen und behaupten, dass alle AMD-Karten das Maß der Dinge sind... wenn man 8xAA anschaltet. Man kann immer nur mit Standard-Bedingungen argumentieren, und da zählen weder 8xAA noch SSAA zu.

Desweiteren ist die Behauptung, dass die Performance-Gewinne durch AMD im selben Zeitraum viel größer sind als bei nVidia, durchaus zutreffend.

Release R600: 05-2007
Release RV770: 06-2008 => Zeitraum: 13 Monate

Release G80: 08-2006
Release GT200: 06-2008 => Zeitraum: 22 Monate

In 13 Monaten hat AMD zwei Nachfolgechips präsentiert und die Performance sukzessive gesteigert, beim RV670 eher bei AA, dafür aber beim RV770 extrem. nVidia hat fast die doppelte Zeit für einen neuen Chip gebraucht, der in Sachen Performancesteigerung keine Bäume ausreißt.

Im Zusammenhang von Dual GPU-Karten von Fake-FPS zu sprechen, ist albern. Die sogenannten Mikroruckler sind systembedingt und treten nur in Grenzbereichen auf. Dual GPUs skalieren je nach Spiel bis zu 100%, das nenne ich sehr ordentlich, du vielleicht nicht, ist deine Sache.

Dass sich die BQ verschlechtert hat, stimmt so auch nicht. Die AA-Qualität ist bei AMD nach wie vor besser, die AF bei nV. Es gab Zeiten, da war das nicht so. Es wechselt hat von Generation zu Generation und Treiber zu Treiber. Bei AMD gibts sicher noch Verbesserungspotential was Texturflimmern angeht, das mag stimmen, aber das sind Kleinigkeiten, insgesamt ist auch dort die AF-Qualität in Ordnung.
 
ok unyu, dann vergleichen wir mal den leistungszuwachs in ähnlicher zeitspanne.

Nvidia:

8800GTX (11.2006) - GTX280 (6.2008) bei 1600x1200 4xAA 16xAF ein Zuwachs von glatten 64% in 19 Monaten

AMD:

Radeon 2900XT (5.2007) - RAdeon 4870 (6.2008) bei 1600x1200 4xAA 16xAF ein Zuwachs von glatten 103% in 13 Monaten.

Das sind, wenn man ein Leistungszuwachs/Monat-Wert hernimmt, bei nvidia 3,4% pro Monat und bei AMD 7,9% pro Monat. Also wenn es nach deiner Aussage geht, hätte AMD mehr als doppelt so viel Leistungszuwachs im SingleGPU System erreicht als Nvidia, wieso also beschwerst du dich?


Und jetzt sag nocheinmal, das es keine SingleGPU-Leistungszuwächse seitens ATI gibt. Diese sind ein vielfaches höher als bei Nvidia.

Wie in aller Hergottesnamen kannst du überhaupt behaupten,dass die Leistung der SingleGPU bei ATI nicht zunimmt? im gegensatz zu Nvidia nimmt sie sogar drastisch zu.


gruß
 
Zuletzt bearbeitet:
In 13 Monaten hat AMD zwei Nachfolgechips präsentiert und die Performance sukzessive gesteigert, beim RV670 eher bei AA, dafür aber beim RV770 extrem.

Naja du musst bedenken, dass Nvidia zwischendurch noch den G92 rausgebracht hat.
Dieser hat zwar den G80 nur unter niedrigen Auflösungen mit wenig AA/AF übertroffen, sollte allerdings trotzdem nicht unter den Tisch gekehrt werden;)
 
stna1981
Überleg mal kurz, warum ich SSAA geschrieben habe. Es gibt mehrere Möglichkeiten, die mich dazu bewegt haben könnten.
Ich verrats dir: Ich nahm an, es sei in dieser Preisklasse normal, das Maximum aus den Karten herauszuholen. Kann sein, das ich zusehr von mir selbst ausging, tut mir leid das ich vergass, das es auch Leute gibt die einfach nur 200 FPS wollen.
Fantatisch, wie du meine 3 Worte aufzublasen vermagst.

Fake FPS: Dann bin ich lieber der Alberne, als der der alles unter den Tisch kehrt.
Immerhin gehts hier in den Argumenten stellenweise um 1-3%, aber die 10% oder auch mehr sind wieder unwichtig.

Die BQ hat sich nicht verbessert. Da kannst du 100mal mit CFAA wedeln, zu BQ zählt auch AF, das ist verschlechtert worden und es sind weniger Optimierungen deaktivierbar, früher konnte man bei AAA auch zwischen SS und MS wählen.
Unter dieser Tatsache ist es ungut von "verbessert" zu schreiben.

Schinzie
Lies nochmal ganz ruhig, du willst auf das Wörtchen "mehr" hinaus? Ich fordere "mehr mehr", nicht "mehr".
Diese Aussage bezog sich auch auf keinen IHV, sondern war generell.

G80, R600, GT200, RV770

Sackgasse, so wird das nichts und führt zu nichts, (es sei den man will damit andeuten, das AMD in 3 Jahren 6mal schnellere GPUs als Nvidia baut.)
Dann nimmt man andereseits G71 vs G80 und hat eine 3-4 Fachung in ~ 8 Monaten.
 
Dieser hat zwar den G80 nur unter niedrigen Auflösungen mit wenig AA/AF übertroffen, sollte allerdings trotzdem nicht unter den Tisch gekehrt werden
http://geizhals.at/deutschland/?fs=9800gtx++1024&x=0&y=0&in=
Mittlerweile übertrifft der G92 den G80 in allen Punkten, das Vram Problem ist beseitigt worden. Erste Tests sind soweit ich weis von PCGH schon in Vorbereitung. Hat zwar lang gedauert aber jetzt kann der G92 sein volles Potenzial entfalten.
Unterstützt die GTX295 Hybrid-Power nur im Quad-Modus oder auch direkt auf der Karte, d.h. dass eine GPU abgeschaltet wird ?
Alles wird abgeschaltet dh. die 2 GPUs + Lüfter oder eben Quad-SLI 4GPUs und die 2 Lüfter, die onbard GPU auf dem Mainboard übernimmt dann Vista Aero, Videobeschleunigung etc...

MfG Kasmo
 
Dann nimmt man andereseits G71 vs G80 und hat eine 3-4 Fachung in ~ 8 Monaten.

Das fällt aber auch nur so deutlich auf, weil die GF79x0-Serie im Vergleich zur x19x0-Serie grottenschlecht war.

Mittlerweile übertrifft der G92 den G80 in allen Punkten,

Das ist mir bekannt allerdings ist die 9800gtx+ erst rausgekommen, als sie sowieso keinen Anspruch eine Top-GPU zu sein mehr hatte, da bereits die GTX2x0 am Start waren.
Vor rund einem Jahr sah das ja noch ganz anders aus.
 
Zuletzt bearbeitet:
@ stna1981
Dem gegenüber stehen Left 4 Dead (dt.) und Call of Duty 5, die - abhängig von Framerate und Einstellungen - deutlich spürbares Mikroruckeln aufweisen. In L4D fühlen sich 50 angezeigte Fps an wie 30 Fps auf einer Single-GPU.
Und ich habs selbst gezockt auf ner 295 ... ist unschön. Input-Lag plus µRuckeln = fail.
allerdings ist die 9800gtx erst rausgekommen, als sie sowieso keinen Anspruch eine Top-GPU zu sein mehr hatte, da bereits die GTX2x0 am Start waren.
Äh, nein. Die GTX2x0 kamen viel später, nur die GTX+ kam nach den GTX2x0.

cYa
 
y33H@ schrieb:
Falsch. L4D macht mit nominellen 60 Fps auf einer 295 nur wenig Spaß.

cYa

Was hat bitte Input-Lag mit der Grafikkarte zu tun :rolleyes: und dass bei 60 fps Mikroruckler auftreten, kann ich mir nur schwer vorstellen, haste mal die Frametimes aufgezeichnet? Die würde mich sehr interessieren...
 
@ stna1981

Pre-Render-Limit ... bei AFR, also dem Render-Modus aktueller MGPU-Lösungen wird ein Bild im Voraus berechnet und dann erst ausgegeben. Freilich findet hier keine Umsetzung der Mausbewegung statt. Nun kommen noch die µRuckler dazu, sprich die Mausbewegung wird zusätzlich verzögert bzw. versetzt ausgegeben. Mich stört dies extrem, da ich sehr empfindlich bin.

Natürlich treten auch bei 60 Fps µRuckler auf. Die Höhe der Fps hat damit ja nichts zu tun - die GPU rendern ja wie gehabt asynchron bzw. Bildausgabe erfolgt asynchron. Nur die sind spürbaren Auswirkungen geringer, da da mehr Bilder ausgegeben werden, aber µRuckler sind vorhanden. Frametimes (bei 30 Fps) siehe Bild, mit 60 siehts aber ebenso aus (habe ich aber nicht hier).

Frametimes-L4D.png

cYa
 
Hast dus mal mit dem 181.20 versucht, laut CB soll der doch die MR verringern, der PCGH-Test nutzt ja einen viel älteren Treiber...
 
Hallo,
wer kennt sich aus?
Sind in nächster Zeit Mainboard mit Sockel 1366 zu erwarten die Hybrid-Power unterstützen ?
Mfg
 
ich hätte ne kurze frage:
ist es möglich in einem 3-way-sli system, 3 GTX 295 zu verbauen, sodass 6 gpu benutzt werden, oder nicht?
 
Zurück
Oben