Moin @Wiesbadener WG, mich ärgert es nur, dass von einer "Fach Webseite" so ein Unsinn betrieben wird und die fehlende Leistung auf die Grakas oder die Implementierung geschoben wird obwohl es ganz offensichtlich an unglücklich gewählter Hardware liegt. Ich bin mir fast zu 100% sicher dass jeder, der sich wegen zu geringer CF Leistung beklagt eine unzureichende CPU und ein schlechtes MB verbaut hat. Das gesamte System ist nur so gut wie seine schlechteste Komponente. Dazu muss ich leider etwas weiter ausholen. Vor 4 Jahren habe ich meinen PC neu aufgebaut. Bis dahin hatte ich in meinem Case:
CPU: Intel I7 3700
MB: MSI P67A-GD65
RAM: 8GB G-Skill Ripjaws 1600 MHz DDR3
HDD: WD Blue 1TB
Grafik: 2x ATI Radeon 7980HD @CF
NETZTEIL: Corsair 1000W
Die beiden AMD Karten liefen über eine Crossfire bridge im PCIex8 modus. Durch die CF Bridge mussten die Karten nicht über PCIe kommunizieren. Für dieses Setup reichte die PCI-Busgeschwindigkeit aus um die Volle Leistung ab zu fragen. Nun holte ich mir, weil einige Spiele mit hohen Anforderungen nichtmehr flüssig auf 60 fps liefen eine Sapphire R9 390 8GB. Vor 3 Monaten habe ich für nur 60€ eine baugleiche R9 390 von einem Kollegen bekommen. Das MSI Board hatte auch eine PCIe x16 Gen.2 und eine PCIe x8 Gen2 Schnittstelle. Leider musste ich das Selbe wie in diesem Artikel beschrieben feststellen. Starke Frameeinbrüche und für mich nicht nur als Mikroruckler sondern als richtige Bildlöcher zu beschreibende effekte. HWinfo diagnostiziert eine durchschnittliche PCIe Busgeschwindigkeit von ~5 GT/s. Das BIOS zeigt, dass beide Karten nur auf PCIe x8 Gen2 laufen. Ein Blick ins Datenblatt verriet, die CPU besitzt nur 22 PCIe Lanes. Somit kann die Volle Leistung garnicht aufgebracht werden, weil die Daten nicht ungehindert zwischen CPU und GPU fließen.
Daraufhin habe ich meinen PC mit den Komponenten aus dem Vorigen Post aufgerüstet.
Et voila, die Frames laufen butterweich auf 2x PCIe x16 mit 8 GT/s pro Karte.
Für mich ist es also günstiger diese zwei Karten einige Jahre so laufen zu lassen als mir jetzt eine neue AMD oder NVIDIA mit gleicher Leistung für 400€+ zu holen. Bei dem momentanen Strompreis kannst du ja mal rechnen, wie lange ich das System bei Vollast (ca. 300W mehr) laufen lassen kann um das wieder raus zu haben. Zumal die Karten nie in Vollast laufen, auch nicht bei den neusten Spielen. Wenn bei Multi-GPU die Leistungsaufnahme betrachtet wird, wird oft nur die nach Datenblatt aufgenommene maximalleistung diskutiert. Jeder der etwas Ahnung hat weiß aber, dass die mit 300W max. angegebene Hardware bei nur mäßiger Auslastung nur einen Bruchteil benötigt. Vollast wird nach meinen Erfahrungen nur sehr selten bis nie abgefragt. Moderne Treiber wie Adrenalin bieten zusätzlich die Möglichkeit CF zu deaktivieren. Dann benötigt die zweite Graka lediglich 5W im Leerlauf. Zudem wird die zweite Karte erst angesprochen wenn die Leistung von einer nichtmehr ausreicht. Generell konnte ich z.B. in Metro beobachten, dass der Mehrverbrauch im CF mit durchschnittlich 90% Auslastung pro Karte bei ~200W lag. Bei Witcher 3 hingegen nur ~70W mehr mit durchschnittlich 60% Auslastung pro GPU, wobei sich die Frames verdoppelten. Mir war von vornherein klar, dass Multi-GPU mehr Strom zieht. Bei dem Preisverfall der aktuellen Grakamodelle möchte ich allerdings keine 400-800€ für eine vernünftige Karte ausgeben.
Dann lieber etwas mehr auf der Stromrechnung.
@hans_meiser ich bin kein NVIDIA freund und habe deswegen keine Erfahrung mit diesem System.
@Pisaro mir ist egal wer was erzählt. Ich warte lieber ab was passiert. Solange mein System läuft und ich die Spiele auf den höchsten Settings flüssig auf den Bildschirm kriege werde ich nichts daran verändern.
Wer CF schlechtredet hat wahrscheinlich einfach keine Ahnung wie man dieses Setting aufbauen muss.
Falls CF irgendwann eingestampft wird, hole ich mir eine neue Karte. Bis dahin hab ich zwei dicke Karten im Case und wer sowas schonmal gesehen hat weiß wovon ich rede. Denn das sieht einfach Fett aus![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Wer sagt, dass CF scheiße ist hat mit hoher Wahrscheinlichkeit einfach keine Ahnung von der Materie. Laien müssen hier aufpassen. Man kann seinen eigenen PC ohne Ahnung zusammenschrauben. Entweder man hat Glück und das System läuft oder man fällt voll auf die Nase. Das liegt dann aber nicht an der Hardware sondern fast immer am Bediener selbst.
CPU: Intel I7 3700
MB: MSI P67A-GD65
RAM: 8GB G-Skill Ripjaws 1600 MHz DDR3
HDD: WD Blue 1TB
Grafik: 2x ATI Radeon 7980HD @CF
NETZTEIL: Corsair 1000W
Die beiden AMD Karten liefen über eine Crossfire bridge im PCIex8 modus. Durch die CF Bridge mussten die Karten nicht über PCIe kommunizieren. Für dieses Setup reichte die PCI-Busgeschwindigkeit aus um die Volle Leistung ab zu fragen. Nun holte ich mir, weil einige Spiele mit hohen Anforderungen nichtmehr flüssig auf 60 fps liefen eine Sapphire R9 390 8GB. Vor 3 Monaten habe ich für nur 60€ eine baugleiche R9 390 von einem Kollegen bekommen. Das MSI Board hatte auch eine PCIe x16 Gen.2 und eine PCIe x8 Gen2 Schnittstelle. Leider musste ich das Selbe wie in diesem Artikel beschrieben feststellen. Starke Frameeinbrüche und für mich nicht nur als Mikroruckler sondern als richtige Bildlöcher zu beschreibende effekte. HWinfo diagnostiziert eine durchschnittliche PCIe Busgeschwindigkeit von ~5 GT/s. Das BIOS zeigt, dass beide Karten nur auf PCIe x8 Gen2 laufen. Ein Blick ins Datenblatt verriet, die CPU besitzt nur 22 PCIe Lanes. Somit kann die Volle Leistung garnicht aufgebracht werden, weil die Daten nicht ungehindert zwischen CPU und GPU fließen.
Daraufhin habe ich meinen PC mit den Komponenten aus dem Vorigen Post aufgerüstet.
Et voila, die Frames laufen butterweich auf 2x PCIe x16 mit 8 GT/s pro Karte.
Für mich ist es also günstiger diese zwei Karten einige Jahre so laufen zu lassen als mir jetzt eine neue AMD oder NVIDIA mit gleicher Leistung für 400€+ zu holen. Bei dem momentanen Strompreis kannst du ja mal rechnen, wie lange ich das System bei Vollast (ca. 300W mehr) laufen lassen kann um das wieder raus zu haben. Zumal die Karten nie in Vollast laufen, auch nicht bei den neusten Spielen. Wenn bei Multi-GPU die Leistungsaufnahme betrachtet wird, wird oft nur die nach Datenblatt aufgenommene maximalleistung diskutiert. Jeder der etwas Ahnung hat weiß aber, dass die mit 300W max. angegebene Hardware bei nur mäßiger Auslastung nur einen Bruchteil benötigt. Vollast wird nach meinen Erfahrungen nur sehr selten bis nie abgefragt. Moderne Treiber wie Adrenalin bieten zusätzlich die Möglichkeit CF zu deaktivieren. Dann benötigt die zweite Graka lediglich 5W im Leerlauf. Zudem wird die zweite Karte erst angesprochen wenn die Leistung von einer nichtmehr ausreicht. Generell konnte ich z.B. in Metro beobachten, dass der Mehrverbrauch im CF mit durchschnittlich 90% Auslastung pro Karte bei ~200W lag. Bei Witcher 3 hingegen nur ~70W mehr mit durchschnittlich 60% Auslastung pro GPU, wobei sich die Frames verdoppelten. Mir war von vornherein klar, dass Multi-GPU mehr Strom zieht. Bei dem Preisverfall der aktuellen Grakamodelle möchte ich allerdings keine 400-800€ für eine vernünftige Karte ausgeben.
Dann lieber etwas mehr auf der Stromrechnung.
@hans_meiser ich bin kein NVIDIA freund und habe deswegen keine Erfahrung mit diesem System.
@Pisaro mir ist egal wer was erzählt. Ich warte lieber ab was passiert. Solange mein System läuft und ich die Spiele auf den höchsten Settings flüssig auf den Bildschirm kriege werde ich nichts daran verändern.
Wer CF schlechtredet hat wahrscheinlich einfach keine Ahnung wie man dieses Setting aufbauen muss.
Falls CF irgendwann eingestampft wird, hole ich mir eine neue Karte. Bis dahin hab ich zwei dicke Karten im Case und wer sowas schonmal gesehen hat weiß wovon ich rede. Denn das sieht einfach Fett aus
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Wer sagt, dass CF scheiße ist hat mit hoher Wahrscheinlichkeit einfach keine Ahnung von der Materie. Laien müssen hier aufpassen. Man kann seinen eigenen PC ohne Ahnung zusammenschrauben. Entweder man hat Glück und das System läuft oder man fällt voll auf die Nase. Das liegt dann aber nicht an der Hardware sondern fast immer am Bediener selbst.