Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

Wer sagt, dass AMD weniger µRuckler hatte bis her und nV nun gleich gezogen ist?! :rolleyes: Bisher waren beide Hersteller gleichauf, nun hat nV nen Vorteil. Was du als X2-User freilich nicht hören willst *g*
Ist alles nur ein Warnehmungstest und daher recht ungenau.
Frametimes per Fraps sind Wahrnehmung? Nö.

cYa
 
y33H@ schrieb:
Wer sagt, dass AMD weniger µRuckler hatte bis her und nV nun gleich gezogen ist?! :rolleyes: Bisher waren beide Hersteller gleichauf, nun hat nV nen Vorteil. Was du als X2-User freilich nicht hören willst *g*Frametimes per Fraps sind Wahrnehmung? Nö.

cYa

Sorry !
Aber du machst dich langsam echt lächerlich mit deinen haltlosen Behauptungen !
Das sich viele Leute über dich aufregen kann man schon in viele Posts lesen und du solltest mal deine Einstellung diesbezüglich überdenken. Ist nur ein gut gemeinter Ratschlag von mir.

Wir verlassen uns dabei aber nicht nur auf die Zahlen, sondern achten mit unseren eigenen Augen auf die Mikrorucklern. Wir starten Fraps erst dann, wenn wir der Meinung sind, dass das Spiel „unrund“ läuft beziehungsweise nach Angaben der FPS unrund laufen müsste. Damit schließen wir eine Fehlmessung von Fraps aus und kontrollieren mit zwei voneinander unabhängigen „Systemen“ den Spielfluss.

Also wenn das kein Augenmaß ist dann bist du wohl zu den Scheuklappen-Trägern übergelaufen !

Bitte erst lesen dann Andere in ihren Kommentaren kritisieren und nicht umgekehrt was wohl deine Stärke darstellen mag.

Wir hatten es beim Probespielen im Gefühl und die Diagramme der GeForce GTX 295 bestätigen unsere Vermutung: In der Tat, Nvidia scheint mit den letzten Treibern aktiv gegen die Mikroruckler vorgegangen zu sein. Es gibt sie zwar immer noch, aber in deutlich geringerem Maße.

Also Microruckler sind sehrwohl noch vorhanden.
Und wenn du schon mit Frametimes kommst dann solltest du dir mal diverse andere Tests durchlesen wo genau zu erkennen ist das eben die X2 deutlich weniger Microruckler besitzt als z.B. eine GX2.
Das ist Fakt aber anscheinend bist du eh im NVidia-Himmel... :rolleyes:

Und deine Erbsenzählerrei kannst du auch für dich behalten.
 
@ Pickebuh

Nun, µRuckler zu sehen ist kein Ding. Diese nachzumessen und per Frametimes zu verifizieren auch nicht. Darum geht es aber hier gar nicht. Denn wenn ich auf beiden Karten µRuckler spüre und auch Unterschiede, dann kann ich diese messen und somit feststellen, auf welcher Karte die Ausgabe unregelmäßiger ist. Und dies ist aktuell bei den betroffenen Spielen nun mal die X2 - nicht umsonst berichten dies mehrere Pages wie CB und PCGH. Also versuche nicht, mir ans Bein zu ******.
Pickebuh schrieb:
Also Microruckler sind sehrwohl noch vorhanden.
Ich habe auch nur gesagt, dass die 295 weniger ausgeprägte µRucker hat als die X2 :rolleyes: Kannst mich ja gerne quoten, wenn du n Post von mir findest, wo drin steht "295 hat keine µRuckler mehr". Viel Spaß beim erfolglosen Suchen. Ich gelte nicht umsonst als "MGPU-Hater" ...
Pickebuh schrieb:
diverse andere Tests durchlesen wo genau zu erkennen ist das eben die X2 deutlich weniger Microruckler besitzt als z.B. eine GX2
Lass mal Links rüberwachsen. Mit aktuellen Treibern. Ich hab da einen für dich *klick mich* Text siehe folgendes Zitat:
CB schrieb:
ATi ist nun also im Zugzwang, da der Catalyst 8.12 an den Mikrorucklern auf einer Radeon HD 4870 X2 nichts geändert hat
Und wenn ich mir dieses Bild anschaue, dann sind die Frametimes der X2 mieser:

Frametimes-L4D.png

Wie gesagt, versuche nicht, mir ans Bein zu ******.
Pickebuh schrieb:
Das ist Fakt aber anscheinend bist du eh im NVidia-Himmel
Erstens ist das kein Fakt (siehe Link von CB / Bild von PCGH) und zweitens halte ich es für bedenklich, wenn mich ein überzeugter X2-User (der deren µRuckler gegenüber der 295 als "besser" darstellt, obwohl dem nicht so ist) indirekt als Fanboy bezeichnet. Ich bin wenn, dann ein Fanboy von guter BQ (kein Flimmer-AF *g*), sauberer Frameverteilung und nicht vorhandenem Input-Lag. Wegen den letzten beiden Punkten daher keine X2 und keine 295, kein MGPU halt. Aber immer wieder schön zu sehen, dass es die gleichen paar Leute sind, die (erfolglos) versuchen, ihren Horizont als die allumfassende Wahrheit darzustellen, wenn renommierte Pages/Mags und auch erfahrenere User (und da zähle ich mich mal ganz dreist dazu) etwas gegenteiliges sagen.
Pickebuh schrieb:
Und deine Erbsenzählerrei kannst du auch für dich behalten.
Warum sollte ich? Weil du sie unangenehm findest? Dein Problem, wenn du Fakten nicht akzeptieren kannst. Ich behaupte nichts, was ich nicht selbst getestet habe oder belegen kann. Du bist dran - schicke mir einen Link, der aufzeigt, dass die X2 mit aktuellen Treibern absolut gesehen weniger µRuckelt als die 295. Ah ja eins noch - mir ists scheißegal, welche mehr oder weniger µRuckelt, da mir der "MGPU-Dreck" ohnehin nicht in den Rechner kommt. Ja, auch wenn es eine geschenkte 295 wäre. Ich hab nur ein Problem damit, wenn Leute Fakten nicht akzeptieren wollen, weil ihr Horizont dafür keinen Platz hat. Und mir ists schei0egal ob es Leute gibt, die sich über mich aufregen. Warum? Weils nur ne Handvoll Leute wie du sind ... und sorry, das stört mich keinen Meter. Vll solltest du den Inhalt deiner Posts künftig überdenken oder gescheit belegen und meine Posts richtig lesen und nicht im Rahmen deines Horizontes fehlinterpretieren. Ist nur ein gut gemeinter Ratschlag von mir.

cYa
 
Zuletzt bearbeitet:
EDIT: @Pickebuh:

Also ehrlich gesagt erzählst du ziemlichen Unsinn. AMD hat bisher null komma nix gegen MR getan, die haben nicht mal angekündigt, was dagegen zu tun, weil sie die Ursache nicht genau können. Habe es am WE selbst mit zwei 4850 getestet, die übelsten Zick-Zack Diagramme, die man sich vorstellen kann.
 
Zuletzt bearbeitet:
Füge bitte noch hinzu, dass du Pickebuh meinst :D

cYa
 
Was Mikroruckler betrifft. Laut dem CB-Test, sind diese bei der GTX295 nun deutlich zurückgegangen. Aber die interessante Frage ist doch, ob es nun an der Karte selbst oder eben an den aktuellen Treibern liegt. Weiss da jemand mehr?
 
An den Treibern. Ne 295 sind auch nur 2x "270" samt SLI-Bridge. Mit 285-SLI ruckelte es auch spürbar weniger als damals mit 280-SLI und älteren Treibern.

cYa
 
Verstehe. Na das ist doch mal eine gute Entwicklung. Hoffentlich forscht und optimiert Nvidia weiter in diese Richtung. Die Grenzen von Singlechips werden auch langsam erreicht. Den Multi-GPUs gehört wohl die Zukunft.
 
"Die Grenzen der Singleships werden auch langsam erreicht."
Wie kommst du darauf?
 
Ist doch logisch. Der Fertigungsprozess kann nicht beliebig geschrumpft werden, spätestens ab 32nm wirds langsam eng. Das haben die CPU-Hersteller bereits vor Jahren erkannt und haben angefangen, mehrere Kerne auf einen Die zu setzen, weil eine Single Core-CPU einfach nicht mehr komplexer gemacht werden konnte. Der P4 mit 3.73 GHz wurde so heiß, da war nicht mehr drin (abgesehen davon, dass Netburst eh Mist war). Und so wird es bald auch bei GPUs sein, schau dir doch mal den GT200 an, wie groß der schon ist. 240 Shader brauchen Platz, und wenn später mal 512 Shader hermüssen, wird der Platzbedarf weiter steigen, trotz 40nm etc., das geht nicht ewig.
 
Und wenn man die 240SPs auf 2 Die aufteilt sinkt der Gesamtverbrauch? :confused_alt:

Mal nachgerechnet: Ein 576mm² GT200 wär in 40nm bei einem Bilderbuchshrink 215mm² groß.


Diese Rechnung, das MGPU die Zukunft hat, hat immer den selben Haken, MGPU braucht ebenfalls Shrinks, sonst ist Sense.
 
Zuletzt bearbeitet:
@Pickebuh: wie kannst Du behaupten, dass MR bei nvidia vor dem 181.20 ein größeres Problem waren als bei ATI? Hast Du irgendwelche Quellen für diese Behauptung. Ich vermute, nein.
Und da Du sicherlich schon auf einer GTX295 o.ä. testgezockt hast, kannst Du Dir bestimmt ein dezidiertes Bild von dem Nochvorhandensein bzw. den Verbesserungen zum Thema MR bei nvidia machen :rolleyes:.

Ich sehe eher, dass Du als X2-Besitzer die Karte innbrünstig verteidigen willst. MR sind immer eine Sache der individuellen Wahrnehmung, aber zu behaupten, dass nvidia hier gerade einmal so gleichgezogen hätte, ist Unfug.

Mfg
 
Wer spielt schon mit so einer Karte bei 1280x1024 in niedriger Qualität?

Ich persönlich stimme weniger dem Fazit zu, das nVidia die Krone wiederhat. Gerade die Multi-GPUs sind doch dafür da, hohe Leistung zu bringen. Und diese ist doch nur sinnvoll, wenn sie auch genutzt wird - in hoher Auflösung und Qualität. Und da genau dort die HD4870 X2 sichtbar besser ist, ist sie weit besser platziert als die GTX 295. ...

Jedoch muss, und es ist ja theoretisch möglich, ATI das Powerplay endlich vollenden, damit der IDLE-Verbrauch in angenehmere Bereiche kommt, sowie sich dem Microrucklern stellen. Nur so würde ATI letztendlich der klar bessere sein. Mal sehen, ob das nVidia's Marketing dort gut an Image abgraben kann, bevor die das (jemals) hinbekommen
 
Die X2 ist nun ne halbe "Ewigkeit" auf dem Markt und wurde stark optimiert. Die GTX295 kriecht noch im Anfangsstadium. Da kann man getrost noch 15-20% Leistung draufpacken, mit den kommenden Treibern. Da sieht die Sache wieder anders aus.
 
Weiß jemand welches Stepping die Chips haben die auf der GTX295 verbaut sind?
Ich finde kein Review mit abmontiertem Kühler. Hats nVidia verboten?
Auf der GTX260 sind es scheinbar B1 und auf der GTX285 B3
 
Unyu schrieb:
Und wenn man die 240SPs auf 2 Die aufteilt sinkt der Gesamtverbrauch? :confused_alt:

Mal nachgerechnet: Ein 576mm² GT200 wär in 40nm bei einem Bilderbuchshrink 215mm² groß.


Diese Rechnung, das MGPU die Zukunft hat, hat immer den selben Haken, MGPU braucht ebenfalls Shrinks, sonst ist Sense.

Nö, der Verbrauch nicht, aber die Größe. Die ist dann nicht ganz doe Hälfte, etwas mehr logischerweise. Aber zwei kleine Chips lassen sich sicher besser herstellen als ein großer Monster-Chip.
 
Arbiter Elite schrieb:
Die X2 ist nun ne halbe "Ewigkeit" auf dem Markt und wurde stark optimiert. Die GTX295 kriecht noch im Anfangsstadium. Da kann man getrost noch 15-20% Leistung draufpacken, mit den kommenden Treibern. Da sieht die Sache wieder anders aus.

15-20% halte ich für Utopie - umgekehrt, das gleiche könnte auch der X2 wiederfahren, denn so ein Sprung hat sie noch nicht hinter sich.

Welche nun letztlich am optimierten Ende die bessere ist, wir eh nicht mehr relevant sein, da bis dort bereits neue Produkte draussen sind. De Facto bleibt die X2 also im Qualitätsbereich, und dafür sind sie nunmal gut, an der Spitze. Schade, das CB das nicht aus den eigenen Messungen erkennt.
 
Leute ich habe hier jetzt nicht alles gelesen.
Meine Frage.
Schafft die Karte Crysis in 1920x1080p in Very High DX 10 Flüssig oder kackt die Karte dabei ab ?
 
Ohne AA bestimmt, mit kommts wahrscheinlich in den Bereich von 30-40 fps, da _könnten_ Mikroruckler entstehn...
 
Zurück
Oben