Ich denke an Artikelkritik wurde schon genug gesagt, wäre der Artikel zeitnah veröffentlicht worden hätte sich auch viel davon erledigt. Aber seis drum man sieht ja, dass man sich, obwohl der Autor momentan nicht verfügbar ist, auf die sachliche Kritik einlässt. Der Artikel liegt momentan unter dem CB-üblichem, durchweg hohen, Niveau, was zwar schade ist, aber der Autor ist auch nur menschlich, gell? Nach einem Update das auf die Kritik eingeht sehe ich persönlich kein Grund zu weiteren Streitereien. Aufs .exe renaming könnte man kurz anhand eines Beispiels eingehen wo CF nicht funktioniert, allein schon um die Möglichkeiten sichtbar zu machen und den Laien zu helfen. Denn wenn bei AMD intern erstmal die X2 das neue Highend wird werden auch Normalos dieses Problem haben.
So genug dazu. Manche Leute fragen sich ja warum die AMDs mit 8xAA besser skalieren, da wäre a) das schlechtere Speichermanagement des G92 und desweiteren fünftelt sich die Z-fill bei Nvidia während sie sich bei AMD nur halbiert.
siehe
http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html unter ROP
Sry hoschi schön langer Beitrag, aber der Inhalt is etwas suboptimal
Hardware_Hoshi schrieb:
Leider wird oft verschwigen, dass man bei gleichgeschalteten Grafikkarten mit Fehlern in der Darstellung rechnen muss, weil die Karten nicht 100% Synchron laufen.
Ein "Synch"-Problem liegt ja gerade bei den bereits erwähnten Mikrorucklern vor
Hardware_Hoshi schrieb:
Soweit ich weiß wird die Aufteilung der Darstellung entweder Zeile für Zeile abwechselnd die andere Grafikkarte genommen oder zu 50% in der Mitte geslittet (horizontal?), wobei eine den unteren und die andere den oberen Bereich des Bildes darstellt.
Ersteres war nur im originalem SLI von 3DFX der Fall, deswegen hieß es da auch noch Scan-Line Interleave, da wurde das Bild sozusagen interlaced (wie PAL oder 1080i zB) und jede GPU bekam abwechselnd ne Zeile zum rendern. Heutzutage funktioniert das technisch bedingt so nicht mehr. Das aufteilen in x abschnitte pro Frame nennt sich SFR (Split Frame Rendering) bzw. Scissoring bei n>1 Flächen pro GPU, was aber afaik nur AMD kann (bin mir hier net mehr sicher, müsste mal wieder nen Grundlagenartikel lesen ^^). SFR ist aber Praktisch tot da es mit vielen Gameengines Probleme macht und das Anpassen der Treiber(profile) viel Arbeit verschlingt. Die andere Methode ist AFR (Alternate Frame Rendering) wo jede GPU ein Bild komplett alleine rechnet, während die andere GPU schonmal das nächste Bild rechnet, das funktioniert durch das Pre-render Limit, man spielt praktisch zwei bzw 3 Frames in der Vergangenheit. Das Mikrorucklerproblem betrifft deswegen übrigens nur AFR, da hier jede GPU so schnell rechnet wie möglich und sofort ausgibt anstatt sich auf eine einheitliche Kadenz mit der 2. Karte zu einigen.
Hardware_Hoshi schrieb:
Ich erkenne sie immer als "Flimmern" oder "Zucken" im Bild an. Je nach Einstellung sind das mehr oder weniger Störungen. Manche Bildfehler treten auch gelegentlich als "Ghost" auf. Das heißt sie erscheinen nur zufällig / sporadisch.
Mir fehlt leider die praktische Erfahrung zu SLI bzw SFR wo ich mir das Problem noch vorstellen könnte. Zum Flimmern, es ist viel wahrscheinlicher, dass es sich hier um Texturflimmer/Shaderflimmern handelt, such dir mal so eine Stelle im Spiel, speicher ab und lade dieselbe Stelle nochmal mit max AF und SSAA, idr stellt sich dann eine Besserung ein. Ghosting, Tearing usw liegt meist am verwendeten Gerät (TFT) oder an fehlender VSync.
Hardware_Hoshi schrieb:
Das Ergebnis sieht man heute in aktuellen Nvidia Grafikkarten, die fast alle Sli-fähig sind, Patent(e) von 3dfx, die jetzt Nvidia gehören und auch weiterentwickelt werden. Frühere Voodoo-Karten waren vorallem sehr stark im OpenGL-Modus - ein Trend, der sich in Nvidias Quadro-Serie (CAD-Bereich - keine Spielegrafikkarten !!!) fortsetzt, die heute den CAD-Bereich beherrscht.
Nvidia hat zwar die 3DFX Engis, aber die Patente werden denen nicht viel nützen da wiee bereits gesagt 3DFX ihr SLI ganz anders funktioniert bist auf den Fakt das da 2 GPUs rechnen. Und die Voodoo war auch nur so gut in openGL weil ihre Glide API sich an OGL orientiert, dann aber auch nur mit speziellen versionen wie zB MiniGL. ATI hat übrigens auch extra CAD Karten (Fire GL) die sich aber idr nur durch den Treiber und ggf mehr Speicher von den normalen unterscheiden, aber das ist bei NV nicht anders.
Hardware_Hoshi schrieb:
Allerdings muss immer bedacht werden, dass Nvidia durch die jahrelange Forschung und die SLI-Patente von 3dfx einen Vorsprung hat, den ATI vorläufig nicht aufholen wird. Neue Technologien oder Innovation im Mehrkarten-Bereich dürfte wohl Nvidia liefern. Also seitens "CrossFire" immer nachgezogen werden, um gleichauf mit der Konkurrenz zu bleiben. Ansonsten verliert ATI viel Marktanteil im High-Endbereich.
Die 3DFX Patente werden NV wie oben bereits erläutert nicht viel gebracht haben, da SLI != SLI
.
Innovationen sehe ich momentan eher weniger, Hybrid SLI zB ist jetzt nichts komplett neues, ähnliche Funktionen bot afaik bereits ATIs 690T chipset, was aber noch schlecht umgesetzt war und Hybrid Xfire soll ja auch kommen. Lieber wäre es mir wenn NV endlich wieder einen 2D Takt mit kleinerer v einführen würde, vgl ATIs PowerPlay. Denn so wird nur die NV Chipsatzsparte gepushed und Leute mit Intel/AMD Boards schauen in die Röhre.
Hardware_Hoshi schrieb:
Positiv muss in diesem Zusammenhang aber erwähnt werden, dass andere große Softwarekonzerne wie Microsoft Nvidia regelmäßig Steine in den Weg legen. Als Beispiel hierfür gilt ganz klar das Betriebssytem "Windows Vista" (siehe Patchgeschichte im Artikel/Test). Hierfür wurde eine ganz neue Logik und Grafikdarstellung benutzt, genannt DirctX10 - Microsofts eigener Grafikstandard, der wegen neuartiger Effekte in neueren Spielen eingesetzt wird. Vista und DX10 sind eine völlig neue Softwaregeneration. Nvidia kann hier also nicht auf alte Erfahrungen (aus 3dfx - Win 9x, XP) bauen und muss sämtliche vorhandenen Softwaremodelle umschreiben oder es können sich Fehler einschleichen.
ATI hat hier den Vorteil, dass sie nichts umschreiben brauchen, da sie nicht die umfangreiche Erfahrung wie Nvidia haben. Die Software wird hier zum ersten mal geschrieben. Mit Optimierungen im Softwarebereich, mit besonderem Fokus auf Treiber, kann ATI mit CrossFire deutlich aufholen. Zumindest bis zur nächsten Hardware-Generation von SLI.
Sry aber der Part ist komplett daneben. in Vista wurde das Drivermodel geändert, aber bestimmt nicht um NV zu blockeiren oÄ. Dann könnte man genauso behaupten MS war pöse zu ATI weil es die Tesselation Unit im R600 (die jetzt nutzlos Transis verschwendet) aus der geplanten DX10 Spec genommen wurde, NV hatte diese nämlich nicht im Design. Das hat auch nichts mit DX10 zu tun, denn es sind auch DX9 Spiele unter Vista betroffen. Und das neue Drivermodel + DX10 soll bei konsequenter Ausnutzung sogar ne Ecke besser sein da es afaik mit weniger drawcalls auskommt was die CPU entlastet. Anscheinend hat NV ihre Treiber nicht richtig angepasst bekommen, also kam der Berg zum Prophet und MS baut für NV was im OS um. Übrigens wurde das Drivermodel auch bei 9x zu 2K/XP geändert, vonwegen Argument mit Erfahrung, die ATI ja nicht haben kann, gibt ja CF nicht erst seit der X Serie
Übrigens wenn mans genau nimmt hatte ATI mit der Rage Fury Maxx schon vor Ewigkeiten und vor NV ne Karte mit 2 GPUs, sollten ja dann mehr Erfahrung haben
Hardware_Hoshi schrieb:
Probleme von Mehrkartenbetrieb ist auch der limitierende Faktor der CPU (!). Solange die Grafikkarten schneller sind als aktuelle Prozessoren auf dem Mainboard, können SLI und CrossFire niemals ihre gesamte Power erreichen. Ändern könnte sich das mit Systemen wie Skulltrail (2x Intel Xeon Server-CPU, max. 16GB Ram, 4x SLI 16x möglich), das bald im High-Endbereich erscheint.
Deswegen kauft man sich ein SLI ja auch nur wenn man es braucht, sprich man fährt hohe AUflösungen mit viel AA und AF, mit den richtigen Settings (zB 2560 + max SSAA und AF) mach ich dir sogar jedes Ultra Tri SLI GPU limitiert
Und der Nutzen von 2 Quads ist eher gering, denn a) skaliert es immer schlechter und b) sind momentan wenig Spiele so gut Multithreaded, dass sie mehr als 2 Kerne richtig benutzen (mir fällt hier atm nur Supreme Commander ein).
Hardware_Hoshi schrieb:
Sollter der aktuelle Trend anhalten, dass neue Grafikkarten mehr Leistung als ihre Vorgänger benötigen, werden bald Netzteile im Kilowatt (1000W+) benötigt.
Dank Tri SLI mit 3 Ultras brauchst du idr schon jetzt PSUs mit mehr als 1KW Leistung.
Aber bei einzelnen Karten sehe ich diesen Trend nicht, selbst bei x2 Karten.
Allerdings sollte man dann auch kein Netzteil Marke Chinaböller benutzen
uff, so, bitte nicht persönlich nehmen aber so konnte ich das net stehen lassen.