Bericht Bericht: nVidias Quad-SLI am Limit

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.913
Bei einer schnellen Grafikkarte ist ein schneller Prozessor essentiell. Aus diesem Grund haben wir Quad-SLI auf einem Intel Core 2 Extreme X6800 nachgetestet - samt 30-Zoll-Display für den richtigen Durchblick. Bringt der ForceWare 91.45 einen Performanceschub? Und was sind überhaupt die maximal möglichen Einstellungen bei Quad-SLI?

Zum Artikel: Bericht: nVidias Quad-SLI am Limit
 
sehr ausführlich :D
aber das erste was ich aus den benshmarks ziehe -das die treiber noch kein bischen ausgereift sind weder cf noch sli.
und anbedacht des preises ist mir quad sli einfach nicht gut genug. die paar frames im vergleich zum normalen sli bzw crossfire sind einfach nur lächerlich dafür das man 4 anstadt 2 gpus besitzt :mad:
 
Wenn das die Zukunft sein soll, dass ich vier Grafikkarten benötige um Spiele in dem Maß an Details zu spielen, so dass ich noch etwas davon habe, dann ist das traurig. Sehr traurig.
Erlich gesagt, sind mir allein schon die SLI und CF Gespanne ein Dorn im Auge.
Nichts gegen den Bericht, jedoch möchte ich nicht den kompletten Preis des Testsystems wissen. Irgendwann wird da auch der Stromzähler so schnell drehen, dass man ihn glatt als CD-ROM Laufwerk nutzen könnte :freak: .
Und es wird dennoch Leute geben die das für den privaten Gebrauch kaufen. Also kann auf etwas Performance-Ersparniss bei Spielen von den Programmieren getrost verzichtet werden. Das ist jetzt zwar ein bisschen über den Kamm geschehrt, jedoch habe ich dennoch das Gefühl, dass sowas momentan in die falsche Richtung geht.
 
Da hast du recht. Ein Quad-SLI lohnt sich garantiert nicht.
Vor allem liegt es nicht nur an der Hardware sondern ist auch durch die Software limitiert. Man siehe sich zum Beispiel Oblivion an, was ziemlich mieß programmiert ist. Da bringt einem auch keine 2 7950 GX2 nichts, das Spiel bringt nicht mehr. Das ist doch lächerlich bei einer solch starken Hardware gerade mal ein paar Frames hinzubekommen. Bei alten Karten ist da auch kein großer Unterschied zu sehen.

Was den Conroe angeht, somit ist meine Kaufentscheidung bestätigt. Ich kaufe mir auf jeden Fall einen Conroe (so oder so, auch ohne diesen Artikel).
 
Ich würde sagen, dass es darauf ankommt, was für eine Ausstattung man zur Zeit hat. Ich habe zum Beispiel noch einen Prescott mit 3 GHz. Meiner Ansicht nach würde sich das schon lohnen, da ich eine Generation (oder auch 2) überspringen kann. Der Leistungsunterschied ist selbst bei den Spielebenchmarks sehr hoch, wobei ja normalerweise unter den einzelnen CPUs nicht so große Leistungsunterschiede vorhanden sind.

Aber wenn ich mir schon einen Conroe kaufe, dann soll es auch der sein, der 4 MB Cache hat. Das ist immerhin doppelt soviel, wie der andere Conroe hat.
 
Lohnen tut sich dann aber wirklich niemals ein Kauf einer neuen Grafikkarte, da diese spätestens nach einigen Monaten (Frühjahr X1900, jetzt bald X1950) überholt ist.

Finde den Artikel sehr interessant, aber muss dennoch sagen, dass sich ein QSLI System im Moment eher nicht lohnt. Selbst mein X1900 CF System ist noch überhaupt nicht ausgereift und reizt die Spiele nicht ganz aus.

Aber mal ehrlich, alleine der 30" Monitor kostet doch schon üner 2000€, dann kommen noch knapp 1000€ für das QSLI System und 1000€ für den X6800... ganz zu schweigen von den unzähligen anderen Highend Komponenten, welche sich ein Enthusiast kaufen könnte. Wer investiert Geld im Wert eines Kleinwagens, welches schneller an Wert verliert, als alles andere das auf dem Markt erhältlich ist?
 
Mh... mal ne Frage nebenbei an die Redaktion:

wenn man in den NVidia-Treibern das CPU-Prerender-Limit von DX von 3 auf 4 erhöht, erzeugt dann QuadSLI auch unter DX höhere Werte? Oder liegt dieses "eigentliche Problem" das ihr im letzten Artikel beleuchtet habt noch tiefer begraben?

Und wenn es dann schneller laufen würde, würde der Mauszeiger aber wohl trotzdem noch schwammiger werden... liegt die Reaktion zwischen Input und Output dann immerhin schon bei 4 Frames - sowas könnte in UT oder Quake schon das aus bedeuten.
 
Ein Grafikkartenupdate lohnt sich meiner Meinung nach auch erst, wenn man mehere Generationen überspringen kann.
Zum Beispiel von einer 9700 Pro auf eine neue nVidia 7950 GX2 oder 7900 GTX wäre schon lohnenswert. In meinem Fall warte ich aber auf die nv80 mit DirectX 10. Wenn ich mir schon eine neue kaufe, dann kaufe ich mir lieber gleich eine mit DirectX 10 unterstützung. Alles andere wäre Geldverschwendung.
 
Abschreckend ist der sehr hohe Preis von 2100 Euro, den man erstmal überwinden muss. Wenn dies allerdings geschehen ist, können wir einem wahren Enthusiasten aber nur empfehlen, sich selbst ein Bild von dem 30-Zoll-Display zu machen. Die meisten Spiele wird man auf solch' einem Gerät neu erleben. Der Stromverbrauch fällt mit 150 - 170 Watt (Dell) vertretbar für die Dimensionen aus, liegt nichtsdestotrotz aber auf einem hohen Niveau.
Das ist wie bei nem geilen Sportwagen - sich das Gerät anschaffen zu können, ist nur die eine Seite. Unterhalten muss man das auch erst mal können und da finde ich 150 - 170 Watt einfach ne Ansage. Soviel verbraucht nicht mal mein ganzes System, würde ich schätzen.
 
Danke für die "ganz grossen" Screenshots - in der Tat beeindruckend (sogar wenn man scrollen muss ;)), wenn die Spielfiguren quasi in "Lebensgrösse" vor einem stehen.
In diesem Zusammenhang ein Wunsch (vielleicht für einen andern Test): ein Screenie von einem Strategiespiel (oder einem vergleichbaren Titel mit vielen Figuren und weitläufigen Landschaften) wäre bestimmt auch aufschlussreich. Beispielsweise AoE III.
Die Auswahl der Spielebenchmarks erfolgt in erster Linie nach technischen Kriterien (Engine, Effektprogrammierung etc.) - das ist sicher richtig. Kommt ein 30-Zöller mit 2560*1600-Auflösung ins Spiel, könnte ich mir aber auch vorstellen, dass Strategietitel und/oder Space-Sims optisch und zur Demonstration der schieren Weite sehr viel hergeben. Beispielsweise X3.
Die Bildauswahl hier ist unter diesem Gesichtspunkt etwas einseitig ausgefallen (soll keine Kritik sein).
 
Ich will dann mal die allgemeine Euphorie des Artikels ein wenig bremsen ;)

Also ich hatte vor ein paar Wochen mal einen Samsung 215tw 21" Widescreen
Monitor bestellt und war zuerst auch von der immensen Bildschirmgröße und Grafikpracht
begeistert.
Aber leider wird das Spielen auf solchen Monsterbildschirmen sehr schnell anstrengend, da man um alle Details zu erfassen nicht nur die Augen bewegen, sondern nun auch den Kopf ständig am drehen ist.
Um die sache angenehm zu gestalten müßte man das Teil schon zwei Meter entfernt aufstellen. Nur dann kann man sich auch gleich eine Konsole kaufen.

Und dieses Gerede vom menschlichen 16:9 Blickfeld ist beim Computer auch unsinnig.
Man fokusiert sowieso dauernd nur einen bestimmten Punkt auf dem Schirm, der Rest wird nur verschwommen am Rande wahrgenommen! Dafür brauche ich kein Quad-SLI....

Arbeiten an so einem Bildschirm ist auch eine Qual - alleine um ein Fenster zu schließen muss man den Mausarm über den halben Tisch ziehen :freak: ; Tennisarm vorprogrammiert.

Also spart euch das Geld und kauft euch lieber etwas sinnvolleres :D
 
Weder arbeiten, noch spielen ist an dem 30-Zoll-Gerät eine Qual. Und den Kopf drehen muss man schon gar nicht. Denn man sitzt ja auch nicht 20 cm vor dem Bildschirm;) Ich bin knapp einen Meter vom Bildschirm entfernt und man hat alles schön im Überblick.

wenn man in den NVidia-Treibern das CPU-Prerender-Limit von DX von 3 auf 4 erhöht, erzeugt dann QuadSLI auch unter DX höhere Werte? Oder liegt dieses "eigentliche Problem" das ihr im letzten Artikel beleuchtet habt noch tiefer begraben?
Das verhindert der Treiber, da er ansonsten kein WHQL-Zertifikat bekommen kann.
 
Sehr schöner Test. :daumen:

Der Conroe kann zwar ein bisschen mehr aus den 2 GX2 Karten rausholen, leider stimmt aber die Leistung bei vielen Spielen immer noch nicht.

Bei Doom3 sieht man, dass wenn das Spiel den entsprechenden Renderingmodus unterstützt Quad-SLI auch seine Leistung entfalten kann.

Richtig klasse fand ich das Fazit zum 30" Monitor von Dell. Leider ist das Ding sau teuer, aber es würde mich trotzdem mal reizen auf so einem Monstergerät zu zocken. ;)

mFg tAk
 
knortzsch schrieb:
Ich will dann mal die allgemeine Euphorie des Artikels ein wenig bremsen ;)

Also ich hatte vor ein paar Wochen mal einen Samsung 215tw 21" Widescreen
Monitor bestellt und war zuerst auch von der immensen Bildschirmgröße und Grafikpracht
begeistert.
Aber leider wird das Spielen auf solchen Monsterbildschirmen sehr schnell anstrengend, da man um alle Details zu erfassen nicht nur die Augen bewegen, sondern nun auch den Kopf ständig am drehen ist.
Um die sache angenehm zu gestalten müßte man das Teil schon zwei Meter entfernt aufstellen. Nur dann kann man sich auch gleich eine Konsole kaufen.

Und dieses Gerede vom menschlichen 16:9 Blickfeld ist beim Computer auch unsinnig.
Man fokusiert sowieso dauernd nur einen bestimmten Punkt auf dem Schirm, der Rest wird nur verschwommen am Rande wahrgenommen! Dafür brauche ich kein Quad-SLI....

Arbeiten an so einem Bildschirm ist auch eine Qual - alleine um ein Fenster zu schließen muss man den Mausarm über den halben Tisch ziehen :freak: ; Tennisarm vorprogrammiert.

Also spart euch das Geld und kauft euch lieber etwas sinnvolleres :D

Also das kann ich nicht bestätigen. Ich habe zwar "nur" einen Dell 2005FPW mit 20" 16:10, aber dieser füllt bei weitem noch nicht mein ganzes Blickfeld aus - ich würde sagen 24-26" wären für mich das Maximum in dieser Beziehung. Entfernung zu den Augen beträgt ca. 35 cm.
Hier auf der Arbeit habe ich einen 19" 4:3 mit derselben Entfernung und ich würde sagen, das sind links und rechts noch jeweils 10 cm, oben und unten je 5 cm Platz bis er mein ganzes Sichtfeld ausfüllen würde. 30" dürften aber - für mich zumindest - zuviel sein, um es noch auf diese Entfernung noch alles im Blickfeld zu behalten.
Auch wenn man sich immer nur auf einen Punkt focussiert, sieht man ja trotzdem das ganze Blickfeld. Ich möchte zb nicht mit einem 19" 4:3 Blickfeld auf der Autobahn fahren müssen.
 
erstmals Danke, dass ihr mir meine Wünsche erfüllt habt! ;)
Nämlich dass das Performancerating endlich auf 100% optimiert ist, dass macht ienne Vergleich viel einfacher.
Und zweitens fand ich es toll, dass ihr für jedes Spiel die Min/Max/Avg Framerate angegeben habt, was mehr als interessant ist, gerade bei Systemen, wo die AVG FPS oftmals über 100 liegen.
Wenn man sich z.b. Fear schaut so kommt folgendes zu Tage:

Fear hat eine AVG FPS von über 85, also mehr als man sich wünschen kann.... eignetlich.
Denn schaut man sich die Min fps an sieht man, dass diese bei 18 liegt- also eine Framerate die duchaus als ruckeln empfunden werden kann.


Und weiters interessant ist, dass scheinbar nichtmal ein Core2duo mit 3,2 ghz und 4 bzw 2 Grafikkarten ausreichen um Oblivion in 1280x1024 mit AA flüssig zu spielen...
 
Schöner Test, saubere Arbeit.
Kleiner Schreibfehler im ersten Absatz des Fazits: "Die Performance ist unterm Stich"
Da fehlt wohl ein "r";)
 
Hildebrandt17 schrieb:
Und weiters interessant ist, dass scheinbar nichtmal ein Core2duo mit 3,2 ghz und 4 bzw 2 Grafikkarten ausreichen um Oblivion in 1280x1024 mit AA flüssig zu spielen...

Das zeigt, wie schlecht das Spiel programmiert ist. :freak:

mFg tAk
 
Zurück
Oben