Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

GERminumus schrieb:
Hat denn dein Monitor auch 150hz?
Ich habe den Verdacht du nutzt einen 60hz Monitor, da bringen dir mehr fps außer tearing nichts
Nein, aber möchte mir einen Neuen kaufen, also 150hz und man merkt das Schon ? War mir nicht bewusst, ich bin gespannt.
 
senf.dazu schrieb:
Heißt die aktuelle Technik der Grafikkartenkopplung nicht NVLink ? ;)

So heißt die MGPU Brücke für Profi Karten von Nvidia soweit ich weiß.
 
Zitat:
Ein interessantes Verhalten zeigt zudem Final Fantasy XV. Das Spiel unterstützt weder CrossFire noch Multi-GPU. Aus unerklärlichen Gründen läuft es auf Multi-GPU-Systemen, egal ob mit AMD oder Nvidia ausgestattet, aber trotzdem langsamer als mit einer einzelnen Grafikkarte...

So kategorisch würde ich das nicht ausschließen oder gar unterschreiben wollen.
Die legendären Tech-Demos zu FF15 liefen doch werbewirksam auf Systemen mit Nvidia Titans als Quad-SLI.

Zumindest im Fall von FF XV ist Multi-GPU wohl definitiv technisch möglich, aber mMn produktpolitisch nicht gewollt.
Und SLI-Fixe gibt es ja auch schon, also alles kein Hexenwerk.

Technisch ist so viel möglich und bei einem Megaprojekt wie FF XV wurde schon ein enormer Aufwand für die PC-Version betrieben... dann sich hinzustellen und zu behaupten, Multi-GPU gibt es nicht weil geht nicht ist im einfachsten Fall armselig bis verlogen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Almalexia und Iscaran
Meine erste (Crossfire) Karte war ne ATI Rage Fury MAXX. War 2000.
Jahre Später dann 2 HD 6970.
Gröbere Probleme gab's mit beiden nicht.
 
Ich kann jetzt nur von SLI sprechen aber meiner Meinung nach hat sich das noch nie wirklich gelohnt. Als ich es damals in Zeiten der GTX 295 ausprobiert hab, hatte ich mehr Probleme als Freude in vielen Spielen. Oft war es besser SLI zu deaktivieren wegen irgendwelcher Grafikfehler, Mikroruckler, Performance Probleme etc. Seitdem nie wieder SLI. Zu lesen das es heute sogar noch schlimmer ist, bestätigt nur das ich mit Single GPU die richtige Entscheidung getroffen habe.
 
JMP $FCE2 schrieb:
Nö. Ich ertrage nicht einmal Kinofilme/Serien mit absolut gleichmäßigen 24/25 fps, bei mir ist grundsätzlich die Zwischenbildberechnung auf Maximum. Die wenigen Artefakte sind absolut harmlos verglichen mit dem fürchterlichen Dauergeruckel.

Und schon bei Tomb Raider 1 war ich ziemlich sauer wegen des billigen 30fps-Locks.

Ansichtssache.
Und ich ertrage bei Filmen keine 100 Herz Athmosphäre, welche den teuersten Film zu einer 80er Jahre Serienfolge mit Billiglook auf Gleitschienen mutieren lässt. Die künstliche Herz Technik ist selbst bei meinem modernsten 65er OLED inaktiv und alles läuft wie man es als langjähriger Cineast gewohnt ist mit 24 FPS.

Bei viel bewegungsintensiveren Spielen reichen deshalb normalerweise auch die 60 Frames um es ruckelfrei zu empfinden ... und selbst die 30 Frames würden reichen, wenn es tatsächlich immer konstant bleiben würde, was es aber vom variablen Spielprinzip bedingt (anders als bei fixen Filmen) nie ist und man somit keinen Puffer hat...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Ich erinnere mich noch gut an die Zeiten, als SLI/Crossfire für einige Spiele fast Pflicht waren. Also zumindest bei den höchsten Auflösungen und Grafikoptionen. Crysis von 2007 fiele mir da ein. Ich erinnere mich auch gut an Kunden, welche z.B. zwei Geforce 7600 GT per SLI verbinden wollten, um damit die Leistung einer 7800 GTX zu erhalten :confused_alt: Nach der Logik würde man auch einen Porsche mit 300 km/h bekommen, wenn man zwei Ford Fiestas mit 150 km/h kaufen würde.

Ich habe fast nie erlebt, wie die Leistung um 100% anstieg bzw. sich verdoppelte. Dafür mussten sowohl Treiber als auch Engine und Spiel fast perfekt optimiert werden. Eine Arbeit, welche immer weniger Entwickler in Zeiten von Multi-Platform Releases (PC und Konsolen) machen wollten und wollen, da der Aufwand sich für diese kleine Gruppe nur selten lohnte. 1080p/60 FPS schaffen heute auch gute Midrange Karte wie die GTX 1060 oder RX 570. Für 4K reicht auch eine High-End Karte.

Persönlich konnte ich mit dem Hype um Crossfire/SLI nie etwas anfangen. Zu teuer, zu laut, zu viel Hitze, zu hoher Stromverbrauch, zu viel Platzbedarf, zu hohe Anforderungen an Mainboard und Netzteil und zu wenig Mehrwert.
 
  • Gefällt mir
Reaktionen: Zitterrochen und bad_sign
Immerhin eine klare Aussage. Das Thema ist also erstmal durch. Kommt man schon nicht in Versuchung ;)
 
lord_mogul schrieb:
Eigentlich schade, dass so viele gute Technologien verschwinden. Von gescheitem AA zu multi-GPU.
Ich verstehe die Aussage nicht. Wir haben mit TAA den besten Kantenglätter überhaupt (so eine Implementierung wie in Division -> keine unschärfe aber perfekte Kantenglättung und nur niedrige 2stellige % an Leistungskosten).
AFR war noch nie eine gute Methode für die Grafikberechnung. Ruckelnd, extrem viel Aufwand fürs Profiling, enorme Treiberabhängigkeit und die Skalierung lässt praktisch immer zu wünschen übrig.
 
@Audi 80 #41
Stimme zu, 16+16 ist ausschlaggebend !!!
Bei meinem alten Board nehme ich 16 von der CPU und 16 vom Chipsatz. FUNZT.

Mal zum Vgl. Timespy Test 1 die fps sind rel. gut , Skalierung 95%.
mal mit avg. VDDC = <1,0V
901@1632.png


mal mit avg. VDDC = 1,31V
1025.png

Mehr Infos unter:
http://amdcrossfire.wikia.com/wiki/Crossfire_Game_Compatibility_List

Worauf ich warte:
Vulkan kann neuerdings auch mGpu.
Das sollte dann auch Verbreitung finden.

Grundsätzlich sollte man sich im entsprechenden Spieleforum austauschen. Meistens ist nur ein Parameter
der Ruckelpunkt. Z.Bsp. Gras, Schatten o.ä., wo man mal nachjustieren muss.
 
Zuletzt bearbeitet:
Ich hätte es gerne genutzt um die Details zu erhöhen, nur kommt man unter 60 FPS ruckelt es unspielbar. 120 FPS brauche ich nicht aber selbst die sind schlechter als 60 auf einer einzelnen Karte.
 
Spannender an dem Test finde ich, dass die Vega 64 hier - anders als bei früheren Benchmarks - idR. 5-10% vor der GTX 1080 liegt, wenn man von Final Fantasy (Gameworks?) mal absieht.
 
Ich habe SLI zweimal ausprobiert (einmal mit GTX 260 und ein mal mit GTX 780) und beide Male war es aufgrund der Microruckler und teilweise völlig durch die Decke gehenden Frametimes eine reine Katatrophe, sobald man Settings wählt die nicht durchgehend 60fps+ bringen. Wenn man bedenkt, dass man mit einer GPU meist gut im 40fps Bereich spielen kann, hilft der längere Benchmarkbalken am Ende also absolut gar nicht mehr, und die Mehrleistung wird von den zwingend nötigen höheren Bildern pro Sekunde aufgefressen. Völliger Humbug also, selbst bei perfekter Skalierung.

Zum Glück bin ich aus dem Spielalter raus.
 
Jeder Post bitte mit Angabe wie das SLI/Cf angebunden ist.
Z.Bsp. 2x 8 oder 2x16 und PCIE 1,2,3 etc. .
Zusätzlich Angabe SSD + Ram und ob die Auslagerungsdatei aus ist.
Gibt es die Probleme in einem speziellen Spiel oder wie läuft z.Bsp. etwas hochwertiges, wie 3dMark.
Man muss dann schauen ob Software oder Hardware limitiert.
 
  • Gefällt mir
Reaktionen: Iscaran
Tja, schade, aber leider ist das keine große Überraschung.

Mit den GPU-Preisen der letzten Monate wäre SLI mit älteren Karten sonst eine reelle Option gewesen, sowas in die Richtung von 2x GTX 770 - ich hatte mir tatsächlich kurzzeitig überlegt, ob ich dafür meine alte GTX 770 wieder rauskramen soll. Der Rest meiner Hardware wäre noch fit für Multi-GPU, vor fast 5 Jahren als ich das System zusammengestellt habe wollte ich mir diese Upgradeoption noch explizit offen halten.

Naja, mal sehen was die Zukunft da bringt, mit dem aktuellen langsamen Entwicklungstempo von Grafikkarten und den stark ansteigenden Anforderungen von VR kann ich mir schon vorstellen, dass Multi-GPU da mittel- bis langfristig wieder aktuell wird, auch wenn es dann wahrscheinlich nicht SLI oder Crossfire heißen wird.
 
GerryB schrieb:
oder wie läuft z.Bsp. etwas hochwertiges, wie 3dMark.
Wie spielt sich denn TimeSpy so mit CF? Auch bin ich verwundert über deine Angabe, du nimmst 16 Lanes vom Chipsatz. Dieser ist doch nur mit 4 Lanes angebunden, somit im Prinzip auch Bandbreiten limitiert. Jeder SSD Zugriff kostet dich dann weitere Bandbreite.

Außer natürlich du erfreust dich lediglich über synthetische Performance, dann Daumen hoch.
 
Könnte man denn nicht multi gpu Systeme nicht sinnvoll bei VR Brillen einsetzen? Wenn man beispielsweise eine Brille mit 2 hdmi Anschlüssen hat und somit für jeden Bildschirm in der Brille eine gpu hat.
 
Zurück
Oben