Test GTX 295 im Test: Nvidias neue Multi-GPU-Karte ist kein eindeutiger Gewinner

@ stna1981

180.88 und 181.20 geben sich nichts, bei beiden sind die µRuckler deutlich verringert im Vgl. zu früheren Treibern.

cYa
 
ist es möglich in einem 3-way-sli system, 3 GTX 295 zu verbauen, sodass 6 gpu benutzt werden, oder nicht?

Unabhängig davon ob es geht oder nicht, wird so ein System kläglich am wenigen Vram scheitern.
Schon 4GPU's sollten Probleme mit den 896mb Ram haben.
 
3-Way mit 295ern geht nicht, das absolut schnellste ist zZ 3-Way-SLI mit 285er samt OC. Da sieht auch X2-CF mit OC kein Land idR.

cYa
 
Zitat(Fazit 3. Absatz):

Für Spieler, dies es gerne ruhig haben, ist die Dual-GPU-Karte – so lange man nicht selber Hand anlegen möchte – definitiv nichts.

dies es kenn ich net
entweder die es wie es richtig heißt
oder dies (umgangssprachlich für die es)

Zitat(Impressionen 3. Absatz):

Wie von Nvidia gewohnt, sitzt zwischen den Platinen ein etwa 75 mm großer Radiallüfter, der die Luft verteilt

Punkt danach fehlt.


@topic:

Super Test

Hätte mehr erwartet in höher auflösung und/oder hohem quali einstellungen:(

Der Catalyst 9.1 beta bringt ordentlich Leistung für die 4870x2.
Dadurch überholt sie oft erst die GTX295!

Frage:
2x GTX295 sind doch besser als 3x GTX285 oder?

Kann es sein dass aber
3x GTX285
in hoher auflösung / hohen quali einstellungen wegen des größeren speichers besser sind als
2x GTX295?

Danke im Vorraus!

Ein test mit 2xGTX295 vs. 3xGTX285 vs. 2x4870x2 wäre super von Computerbase!:)

Wenn ihr so einen Test von ner anderen Seite kennt dann sagt mir bescheid pls.
(Per PN oder macht n Thread auf der Supertest;))

Kampfkuchen
 
3-Way-285 ist mit extremen Settings idR schneller als Quad-SLI, da bin ich sicher.

cYa
 
Die Skalierung nimmt mit der Anzahl der GPUs nicht wirklich linear zu, das sollte inzwischen eigentlich bekannt sein!
 
Ich bin froh das das Thema MRuckler nochmal zur Sprache gekommen ist . Scheinbar wurden die Symptome bei der 295 verringert,die Ursache ist jedoch immer noch da.Soweit ich informiert bin weiss niemand ganz genau wo diese Ruckler herkommen. Ich denke das resultiert aus dem Versuch eine SingleCore-GPU mit Gewalt zur DualCoreGPU zu machen.Auch die 295 funktioniert nach diesem Prinzip und ist somit praktisch genau wie alle anderen DUALGPU Karten nicht zum Spielen zu gebrauchen.
Beste Spielekarte bleibt die GTX280(285) ,auch wenn sie nicht die hoechsten Werte im Benchmark erreicht.

Ich hoffe die 295 ist die letzte Karte dieser Gattung und es kommen mal echte Neuerungen die wirklich was bringen.
 
Zuletzt bearbeitet:
ich weiß woher sie kommen

der auftrag ein bild zu berechnen wird an die 1. graka/gpu gegeben kurz danach an die 2.
die 1. gibt das bild an den monitor ab wenn sie fertig ist und kurz danch die 2.
dann folgt eine großelücke in der die beiden grakas/gpus wieder jeweils ein bild berechnen
mit treibern versucht man mit zwischenspeichern die abstände zwischen 2 bildern möglichst anzunähern

falls ich etwas falsch erklärt7geschrieben hab lass ich mich gerne vebesser

hier nochmal die erklärung mit beispielen und frametimes(nach wieviel millisec das bild kommt und der abstand zum nächsten)(lies dir mal durch da wird die genaue Ursache geklärt):

https://www.computerbase.de/artikel...-7#abschnitt_das_multigpuproblem_mikroruckler

Kampfkuchen
 
stna1981 schrieb:
Wenn ich mir deine Beiträge durchlese gewinne ich immer mehr den Eindruck, dass du entweder von nVidia bezahlt wirst, AMD schlecht zu reden, oder einfach ein dickköpfiger Fanboy bist, der sich seine Wahrheiten und seine Argumentation derart zurecht bastelt, dass er sich in seiner abwegigen Meinung auch noch bestätigt sieht. Eigentlich ist aber der einzige, dem du etwas vormachen kannst, du selbst.

Dafür könnt ich dich knutschen. :D Ich musste sehr lachen.
(Ich war mit meinem "ausländischen" Deutsch bisher nicht in der Lage es so schön zu formulieren wie du - was Unyu betrifft.)

Unyu schrieb:
Wenn er mich gemeint haben sollte, so bitte ich zu erfahren was mein Fehler war.

Er hat (dich) "nur" verallgemeinert. :rolleyes:

Unyu schrieb:
Auf Schinzie zu antworten, mit Fakten im Gepäck ist scheinbar nicht erwünscht.
Ich könnte wetten, wenn ich auf einen der anderen 20 mir hier bekannten"AMD zugeneigten" antworte, richtest du den Finger auch auf mich.
Der Satz "ich habe gesprochen", ist immer gut, dadurch muss man seine Aussage nicht rechtfertigen, sie wird automatisch richtig.

Schinzie hat dir ebenfalls mit Fakten geantwortet. Du bringst jetzt allerdings mehr Gegenargumente gegen stna1981 als Argumente die deine Meinung bekräftigen könnten. - Und gerade das ist einer deiner Schwächen.

Nichtsdestoweniger geb ich dir genauso recht. In den Punkten Bildqualität und auch Single-Chip-Performance liegen GeForce-Karten definitiv forne.
Aber du darfst auch nicht vergessen, dass jeder seine eigenen Befürfnisse an eine Grafikkarte hat. Z.B. Der (u.A.) CAD-Anwender (wie ich) wird CUDA lieben. Wer ab und zu ein (modernes) Game spielt wird darin wohl (noch) kaum ein Vorteil) drin sehen.
Flimmern? Bei Radeon Karten? Ja! Das stimmt! Es ist mir selbst schon aufgefallen (also ein ganz leichtes Textur-Flimmern). Allerdings ist es nicht so (wie du es oft darstellst), als ob ein Computer-Spiel auf einer Radeon Karte einfach (optisch) unspielbar bzw. eben kein Genuss ist. Es obliegt auch hier den Ansprüchen des einzelnen. Und das respektierst du leider nicht.
 
wow einfach hammer was die 4870X2 kann wenn der treiber passt.
wahnsinn, ich bin so froh sie gekauft zu haben.
 
guter bericht, vorallem die leistungsaufnahme und die übertaktbarkeit im vergleich zur 4870X2 haben mich schwer beeindruckt!

2 kleine kritikpunkte hab ich aber doch:

"Mikroruckler - Call of Juarez" <-- bei diesem bild sind an der ordinate doch auch die frames, und nicht die zeit, oder? :freak:


als zweites finde ich es schade das mittlerweile im P/L keine 1280*1024 mehr gelistet sind... tja liebe redaktion, nicht jeder hat 16:9 ;)


trotzdem ein sehr guter bericht, wie immer halt ^^
 
Mag generell stimmem, es macht aber keinen Sinn, eine solche Karte in derart niedrigen Auflösungen zu testen, allein schon deshalb, weil dort SLI so gut wie nicht greift, da ist na nicht mal eine der GPUs voll ausgelastet, außer man Spielt Crysis auf Very High mit 8xAA/16xAF... wer so eine Karte kauft, nutzt idR Auflösungen ab 1680x1050.
 
BullRun schrieb:
...Auch die 295 funktioniert nach diesem Prinzip und ist somit praktisch genau wie alle anderen DUALGPU Karten nicht zum Spielen zu gebrauchen.
Beste Spielekarte bleibt die GTX280(285) ,auch wenn sie nicht die hoechsten Werte im Benchmark erreicht.

Ich hoffe die 295 ist die letzte Karte dieser Gattung und es kommen mal echte Neuerungen die wirklich was bringen.

naja, so kannst du das auch nicht ausdrücken. Sie sind durchaus zum spielen geeignet, allerdings nicht in 100% der spielbaren FPS-Werten zufriedenstellend (also 30+).

ich glaube nicht,dass jemand der eine X2/GX2 karte hat, damit nicht spielt^^


gruß
 
alles in allem liegt die gtx295 im rahmen dessen, was ich erwartet hatte. etwas sparsamer, kleines bisschen schneller und deutlich teurer als die 4870x2^^
einzige positive überraschung ist die scheinbar deutliche verbesserung in sachen mikroruckler. in dem zusammenhang würde mich das thema maus-lags bei quad-sli/cf interessieren.
 
MacPok schrieb:
Schinzie hat dir ebenfalls mit Fakten geantwortet.
Damit meinst du scheinbar Post #287

Im großen und ganzen sehe ich nur,
das er mich A falsch verstanden hat in Bezug auf meinen Unmut, warum kann ich nicht beurteilen
das er B seltsame Argumente bringt zb. das G80, R600, GT200, RV770 Argument. -> Was soll das bringen? Ja wir wissen das AMD FPS mäßig wieder zurückgekommen ist und jetzt?

Flimmern? Bei Radeon Karten? Ja! Das stimmt! Es ist mir selbst schon aufgefallen (also ein ganz leichtes Textur-Flimmern). Allerdings ist es nicht so (wie du es oft darstellst), als ob ein Computer-Spiel auf einer Radeon Karte einfach (optisch) unspielbar bzw. eben kein Genuss ist. Es obliegt auch hier den Ansprüchen des einzelnen. Und das respektierst du leider nicht.
Das stimmt so nicht und das ist dir bekannt.
Wenn jemand schreibt, das die HDs im Vergleich zur X1xxx ein BQ mäßiger Schritt nach vorn sind, dann ist das falsch.
Wenn jemand behauptet, R600+ und GF8+ sind BQ mäßig gleich auf, dann ist das schlicht falsch.
Wenn jemand über G7x meckert, R600+, R4xx ... in keinster Weise kritisiert, im Gegenteil lobt dann ist das scheinheilig.

Im übrigen kann ich mich nicht erinnern, in jüngster Vergangenheit, bzw überhaupt das Wort "unspielbar" oder Synonyme benutzt zu haben.

Vielleicht sollte der eine oder Andere mal überlegen, aus welcher Sichtweise sein Gegenüber gerade schreibt.
Es gibt objektive Tatsachen, zb. AF ist nicht identisch und subjektive Bedürfnisse, zb. AF ist unwichtig.

Du bringst jetzt allerdings mehr Gegenargumente gegen stna1981 als Argumente die deine Meinung bekräftigen könnten. - Und gerade das ist einer deiner Schwächen.
Stimmt, Off-Topic Kram sollte ich meiden.
Ich bleibe so oder so böse Bube, egal ob ich wie fast immer Recht habe....
 
Zuletzt bearbeitet:
wenn man nur eine seite beachtet und nur über diese berichtet und noch dazu die schwächen der einen nimmt, kann da nicht viel falsches rauskommen.

Einseitige betrachtung ist nun mal keine objektive betrachtung.

Ich erinnere mich noch wie du gemeint hast,dass AMD mit dem RV770 den Markt kaputt gemacht hat, aufgrund der Kampfpreise. mehr muss ich da wohl nicht mehr dazu sagen?

Unyu schrieb:
Das stimmt so nicht und das ist dir bekannt.
Wenn jemand schreibt, das die HDs im Vergleich zur X1xxx ein BQ mäßiger Schritt nach vorn sind, dann ist das falsch.

winkelunabhängigeres AF und CFAA verbesserung ist eine Verbesserung der BQ.
Wenn jemand behauptet, R600+ und GF8+ sind BQ mäßig gleich auf, dann ist das schlicht falsch.


Nvidia hat das flimmerfreiere, anisotropischere Bild, AMD das schärfere und treppenlosere. Wer kann also objektiv behaupten welche BQ im Gesamtbild besser ist?

Wenn jemand über G7x meckert, R600+, R4xx ... in keinster Weise kritisiert, im Gegenteil lobt dann ist das scheinheilig.


echt?

und was ist jemand,der nie positives über AMD hat, nie negatives über Nvidia bringt und sogar die Preispolitik von AMD als zerstörerisch und marktvernichtend bezeichnet?

Es gibt objektive Tatsachen, zb. AF ist nicht identisch und subjektive Bedürfnisse, zb. AF ist unwichtig.

und es gibt objektive tatsachen,dass die geometrische AA Leistung einer ATI besser ist, fertig!



gruß
 
Zuletzt bearbeitet:
Mit dem Markt, ich als Käufer habe nichts, null davon, das die Preise seit einem halben Jahr stabil sind; und Anfang letzten Jahres innerhalb von gefühlten 2 Wochen der ganze Kram seinen Wert halbiert hat.

Schinzie schrieb:
winkelunabhängigeres AF und CFAA verbesserung ist eine Verbesserung der BQ.
Das Ende vom Satz ist richtig. Nur eben gehört zur Aussage bessere BQ mehr, auch die negativen Aspekte.
Die Sache mit dem winkelunabhängigeren AF hätte ich gerne noch bewießen. Nicht vergessen, das AMD eine KI eigebaut hat, damit bei eigefärbten Mipmaps trilinear geflitert wird.

Nvidia hat das flimmerfreiere, anisotrope Bild, AMD das schärfere und treppenlosere. Wer kann also objektiv behaupten welche BQ im Gesamtbild besser ist?
Du bringst 2 Punkte ins Spiel:
1. Schärfe. Das Thema hatten wir doch erst kürzlich? Am LOD Regler spielen ist einfach.
2. Treppenlos. Glit nur für 8xEDAA und nur für Polygonkanten.

Jup.
Der Ausweg wäre, zu behaupten alles wär gleich. Dann sind schnellere, unschönere AA Modi erlaubt, im Gegenzug streiten wir nicht mehr über die Qualität bei AI-on.
Immerhin kritisertest du das AF der GF7 (die übrigens einen HQ Modus besaß), nicht aber die HDs, bzw den Abstieg von X1xxx.

und es gibt objektive tatsachen,dass die geometrische AA Leistung einer ATI besser ist, fertig!
Dazu gibts passend die subjektive Meinung, das Manch einem die super geglättete Wand wurst ist, wenn der ganze Wald und die zig Tausend Shader flimmern.
 
Zuletzt bearbeitet:
Zurück
Oben