Test Test: SLI auf dem Prüfstand

crux2003 schrieb:
Also wenn jeden Spiel ein Profil braucht um SLI zu können, haben die Forceware treiber bald 50MB! :D
Hoffentlich macht das nvidia so das es einen Grundtreiber gibt und einen SLI-Profil-Treiber, der nur die Profile installiert!
Nocheinmal, bald werden die Treiber Tranpsarent sein, sprich man braucht keine Profile mehr. Und anscheinend scheint der 71.20 ein errster Treiber diesbezüglich zu sein. Und das habe ich mir niorgends aus dem Hut gezogen, sondern sind Erfahrungsberichte.

Habt ihr eigentlich das SLI Gespann noch? Wenn ja, würde es sicherlich nur in paar Minuten dauern den 71.20 mal zu installieren und schnell zwei, drei Benches zu fahren. Dazu dann noch mit Coolbits2 ein Menü freischalten, indem man zwischen AFR und SFR umschalten kann. Wäre auch sicherlich interessant gewesen......

Von diesem imo großen Kritikpunkt Treber mal abgesehen, finde ich, dass es ein recht guter Test geworden ist. Das war sicherlich eine riesenarbeit.
Aber warum bezeichnet ihr 1280x1024 ständig als TFT Auflösung? Sicherlich, die meisten TFTs haben dies als native Auflösung, meiner aber nicht.
 
Sie dir mal sicher, dass wir den 71.20 noch unter die Lupe nehmen ;)

Ich wollte eure Erfahrungen auch nicht abstreiten. Aber irgendwann muss ein Artikel mal online und deshalb haben wir uns vorerst auf einen Hinweis bzgl. 71.20 beschränkt. Updates sind jederzeit möglich.
 
Guter Test.
Die Leistung ist wirklich Hammer,aber wenn mann sich denn Stromverbrauch anguckt und die Lautstärke kann ich gut auf ein Sli SYstem verzichten.Dann holl ich mir lieber ne X850 XT PE und spiel auch alles flüssig und dazu noch leise.
 
War ja klar dass sich wieder alle am Stromverbrauch aufhängen. Ich denke mal es ist nur eine Frage der Zeit bis SLI so implementiert wird, dass der Stromverbrauch im 2D-Modus sich nicht erhöht ggü. einer einzelnen Karte. Im übrigen habe ich meine 6800GT im 2D-Modus auf die minimalen Taktraten eingestellt und so verbaucht diese weniger als die vorher im PC befindliche 9800pro (und etwa 15W weniger als auf Standard-2D-Takt, derzeit 150W @ CnQ inkl. Moni und CEM). Dass hier die Entwicklung erst am Anfang ist steht außer Frage und ich denke mal wenn ATi mit ihrer Art SLI kommt, werden viele Kinderkrankheiten schnell ausgemerzt werden.
 
SLI - Wieder mal eine Erfindung, die die Welt sicher nicht braucht.
 
Blutschlumpf schrieb:
SLI - Wieder mal eine Erfindung, die die Welt sicher nicht braucht.

Ich glaube das die Technik schon bald gebraucht wird
Wenn man sich mal vorstellt wieviele transistoren die aktuellen chips haben (NV40 und R420)
Und wenn bei der Herstellung nur ein Transistor kaputt ist, ist eigentlich der chip zum wegschmeißen.
Bei großen caches gibt es ja spezielle verfahren wie Redundanz wo caches trotz Fehler noch durch Reserven repariert werden bzw ersetzt.
Aber ein Grafikchip besteht aus verhältnismäßig viel Logik.
heutzutage können die Hersteller schon kaum die Chips in ausreichenden Massen rausbringen.
Das SLI-Konzept zeigt hier seine zukunftssicherheit. Ansatt einen riesen Chip zu entwerfen macht man sich es leichter mit mehreren.
Gigabyte wird wahrscheinlich schon mit ihrer DUAL 6600GT einen riesen Erfolg haben und günstiger sein als eine 6800GT (Bei gleicher Leistung)
 
crux2003 schrieb:
Gigabyte wird wahrscheinlich schon mit ihrer DUAL 6600GT einen riesen Erfolg haben und günstiger sein als eine 6800GT (Bei gleicher Leistung)


Das halte ich für ein Gerücht oder hast du schon erste Benchmarks mit aa/af ?
 
nein -natürlich hab ich keine Benchmarks :D
Deshalb steht im Satz das Wort "wahrscheinlich" drin
 
Schicker Test.

Der Stromverbrauch ist natürlich enorm. 350 Watt für ein SLI System, damit betreibe ich bei mir alle 3 Rechner unter Vollast, löl. :eek:
Wenn zwei 6800er GTs oder Ultras den Gashahn aufgedreht bekommen, guckt selbst ein Prescott beim Stromverbrauch hinterher. :D
2x6600 GT verbrauchen mehr Saft als eine 6800GT und sind im Schnitt langsamer, daher macht die Kombi wenig Sinn, wenn man nicht gerade 1 bestimmtes Spiel spielt, was auf den hohen GPU Takt anspringt.

Ist leider ein wenig spät, hab das meiste nur überflogen. Interessant wäre auf jeden Fall, ob beim Split Frame Rendering das Bild horizontal oder vertikal geteilt wird. Horizontal wäre recht schwachsinnig, weil die eine Karte dann den unaufwendigen Himmel und die andere die aufwendige Landschaft (auf Außenlevel bezogen) rendern muss. Vertikal ist da irgendwie sinnvoller.

Ich denke, da ist mit Treiberoptimierung noch einiges rauszuholen. Finalen Status hat das ganze für mich noch nicht, eher Beta-Phase. Den 3500+ betrachte ich übrigens als vollkommen ausreichend. Die etwa 10-15% Leistungsdifferenz zu einem FX-55 machen den Kohl in CPU-limitierten Benches auch nicht mehr fett.

mfg Simon :n8:


PS. Schon merkwürdig, Ralph als Autor von dem Artikel zu haben. Ohne die Kompetenz anzuzweifeln ist der Bereich Grafikkarten+Mainboard doch schon sehr untypisch. Die Gründe dafür kann ich mir jedoch selbst ausmalen. ;)
 
wer das nötige kleingeld hat und auch die folgekosten nicht scheut - bitte.

aber für sli wird die zielgruppe ja noch kleiner als für den normalen highendbereich. ist die frage, wieviel die hersteller dann wirklich davon absetzen können.

@mechwollier
1280*1024 deshalb TFT auflösung, weil eben die meisten 17" und 19" diese auflösung haben und es diese auflösung auch auf einem röhrenmonitor nicht gibt (5:4 vs. 4:3)
 
TyphoX schrieb:
Übrigens, in diesem Test war die CPU oft ja die Limitierung (Bsp. Half-Life²), wüsste gerne wie es mit FX55/P4 580 und co. aussehen würde :p

Is ja lustig: Wenn ich Artikel schreibe, maulen alle rum, ich solle mit einer langsameren CPU testen :)
 
Nicie schrieb:
Auf welchem Monitor habt ihr denn die 20xx Auflösungen getestet?
Es kam ein Iiyama VisionMaster Pro 454 (HM903DT) zum Einsatz.


Und noch zum 71.20: er scheint transparent zu sein. Zum einen sind wie im 66.93 die ganzen Profile für die Spiele enthalten (rund 50 Stück). Zum anderen fehlen mir Anwendungen (Spiele), für die kein Profil enthalten ist. Die vorhandenen Profile lassen sich nicht verändern, allerdings hilft der Trick mit dem Umbenennen der exe der Anwendung.

Um allerdings das ganze mal kurz in Zahlen zu fassen, habe ich den 1024er Standard-Bench einmal mit AFR und einmal mit SFR laufen lassen. Das Ergebnis: statt 19321 Punkten mit AFR ergeben sich bei SFR nur 14739 Punkte.

Ein kurzer Test mit CoD (2048x1536) ergab bei SFR eine von 131 auf 143 gestiegene Framerate. Darstellungsfehler erkennt man bei der Timedemo natürlich nicht.
Also haben sich die Ingenieure bei nVidia schon etwas bei der Auswahl gedacht. Wenn es kein Profil gibt, muß man halt ausprobieren, ob und welches besser läuft. Allerdings sollte man nicht vergessen, das der 71.20 eine inoffizielle Beta-Version ist.


@Simon
Bei SFR wird horizontal geteilt. Die Arbeit wird aber nicht einfach halbe/halbe verteilt, sondern dynamisch angepasst. Wenn also die oberen 60 Prozent des Bildes nur aus Himmel bestehen, dann hilft die eine Grafikkarte trotzdem beim Berechnen der unteren 40 Prozent des Bildes mit.


@Christoph
Wir werden es den Lesern wohl nie recht machen können... :D
 
Simon schrieb:
Ist leider ein wenig spät, hab das meiste nur überflogen. Interessant wäre auf jeden Fall, ob beim Split Frame Rendering das Bild horizontal oder vertikal geteilt wird. Horizontal wäre recht schwachsinnig, weil die eine Karte dann den unaufwendigen Himmel und die andere die aufwendige Landschaft (auf Außenlevel bezogen) rendern muss. Vertikal ist da irgendwie sinnvoller.
Bisher habe ich nur gelesen, dass eben eine Karte die obere Hälfte und die andere die untere berechnet, darum auch
Auf Grund der Verwaltungsaufgaben, des Datentransfers zwischen den Grafikkarten und der möglicherweise ungleichen Aufgabenverteilung verdoppelt sich die GPU-Leistung nicht. nVidia spricht von einer etwa 60 bis 80 Prozent höheren Leistung gegenüber einer einzelnen Grafikkarte.
 
Gauder schrieb:
Bisher habe ich nur gelesen, dass eben eine Karte die obere Hälfte und die andere die untere berechnet
Stimmt, imo arbeitet der SFR Modus nicht mit Zeilen, sondern direkt mit der Biodschirmhälfte. Falls eine Karte zu wenig zu tuen hat, greift sie dabei der anderen unter die Arme.

1280*1024 deshalb TFT auflösung, weil eben die meisten 17" und 19" diese auflösung haben und es diese auflösung auch auf einem röhrenmonitor nicht gibt (5:4 vs. 4:3)
Natürlich gibt es diese Auflösung auch auf einem Röhrenmonitor, allerdings ist sie nicht perfekt. Es klingt halt dämlich, da es durchaus eine menge TFTs gibt, die eine andere native Auflösung haben. Somit müsste man vorher schon ganz klar verdeutlichen, dass 1280x1024 die TFT Auflösung ist.

Is ja lustig: Wenn ich Artikel schreibe, maulen alle rum, ich solle mit einer langsameren CPU testen
DIeser Artikel ist aber anders als deine anderen bevor. Du hast zum ersten mal Grafikkarten in der Hand, die ein einzelne High End Karte derzeit locker zum Frühstück verputzen können. Somit bruacht man eigentlich schon zwangsweise die schnellste CPU auf dem Markt, da man noch deutlich mehr Rechenleistung haben muss, als bei einer einzelnen High End Karte.


Ist aber schön, dass ihr euch zumindest den 71.20 mal angeguckt habt. Imo könntet ihr diesen auch mal etwas mehr auseinander nehmen, vor allem was AFR und SFR betrifft, und dann euren Artikel mal updaten. Zumindest wäre er dann mal "einzigartig".
 
Sollte ich deinem Posting inhaltlich mehr als gar nichts entnehmen können?

Wir haben doch die ganze Bandbreite an Grafikkarten gehabt. Und seit wann nehmen wir Werte von anderen Seiten?
 
Schön geschrieben. In 2000x1500 zu spielen wäre sicher was für mich, aber nicht bei den Temps / dbs und der Lautstärke. Einzig in Spiele / CAD Studios wie z.B. bei uns in der Sotwareabteilung wäre SLI wohl sinnvoll. Da zählt nur Leistung.
Respekt ;) denn das war ne Menge aufwand.

grüße
 
Zurück
Oben