Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test CrossFire & SLI: Früher meist schnell, heute meist schlecht
- Ersteller Wolfgang
- Erstellt am
- Zum Test: CrossFire & SLI: Früher meist schnell, heute meist schlecht
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.917
extra für dich:firexs schrieb:Könnt ihr bei der Spiele Auswahl auch die verwendete Engine dazu schreiben? Wäre interessant, falls man ein anderes Spiel mit gleicher Engine hat. Betrifft natürlich auch andere gpu Tests
Star Wars: Battlefront 2 - Frostbyte3
Farcry 5 - Dunia Engine
FF15 - Luminous Engine
Kingdom Come - CryEngine
Schatten des Krieges - Firebird Engine
IBISXI
Admiral
- Registriert
- Jan. 2014
- Beiträge
- 7.942
Ich vewende noch SLI und Crossfire. Beide mit den jeweils besten Karten.
Bei AAA Titeln klappt das meist recht gut.
Das was Wolfgang hier testet ist wenig aussagekräftig.
Ich finde die Spieleauswahl nicht gelungen.
Und mit 8 Lanes pro Karte zu testen ist einfach nur peinlich.
Und dann fragt man sich wo die Mikroruckler herkommen.
Wer sich 2 Top Grafikkarten im SLI leisten kann, kann auch eine CPU mit 40 Lanes bezahlen.
Bei AAA Titeln klappt das meist recht gut.
Das was Wolfgang hier testet ist wenig aussagekräftig.
Ich finde die Spieleauswahl nicht gelungen.
Und mit 8 Lanes pro Karte zu testen ist einfach nur peinlich.
Und dann fragt man sich wo die Mikroruckler herkommen.
Wer sich 2 Top Grafikkarten im SLI leisten kann, kann auch eine CPU mit 40 Lanes bezahlen.
Love Guru
Lieutenant
- Registriert
- Dez. 2015
- Beiträge
- 874
Wolfgang schrieb:Moderne Spiele-Engines haben sich deutlich verändert, sodass es sowohl für AMD als auch Nvidia und die Spieleentwickler immer schwerer bis oft unmöglich geworden ist, zwei Grafikkarten zu unterstützen.
Grundlegend ist das aber nicht das initiale Übel. Unter Win7 kann ich SLI problemlos in BF3 und BF4 nutzen. Unter Win10 kann es da schon mit den Treibern haken!
tek9 schrieb:Klar, als die Karte rausgekommen ist, war das Spiel bereits zwei Jahre alt...
Und ? Das ist kein Alter für einen Multiplayershooter, und genau dafür braucht man die hohen Frameraten. Mit dem Pentium 3 und der Geforce 1 waren es auch schon mehr als 60 fps, meistens hielt es die 75. Die maxfps-Werte (75, 125) weiß ich deshalb so genau, weil die Physikengine damit weitere/höhere Sprünge ermöglichte. Natürlich nur, solange der Rechner die Framerate auch halten konnte.
Die Pros schalteten übrigens alle Details weg, und dann lief es noch schneller.
lord_mogul
Cadet 4th Year
- Registriert
- März 2014
- Beiträge
- 101
Eigentlich schade, dass so viele gute Technologien verschwinden. Von gescheitem AA zu multi-GPU.
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.917
macht man auch heute noch so ^^JMP $FCE2 schrieb:Die Pros schalteten übrigens alle Details weg, und dann lief es noch schneller.
nicht nur bei quake
stainless_steve
Cadet 2nd Year
- Registriert
- März 2018
- Beiträge
- 28
Wie ist das eigentlich in Kombination mit einem G-sync oder Freesync Bildschirm? Fallen diese mikroRuckler dann auch noch auf?
T
tek9
Gast
JMP $FCE2 schrieb:Und ? Das ist kein Alter für einen Multiplayershooter, und genau dafür braucht man die hohen Frameraten.
Die Pros schalteten übrigens alle Details weg, und dann lief es noch schneller.
Du gibst einen netten Erklärbär ab.
Lies die Diskussion nochmal. Es ging um etwas ganz anderes.
Du hast meine Beiträge offensichtlich nicht verstanden
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.292
Deleo schrieb:Also ich kann auch mit 150fps Spielen und merke Null, vielleicht sind meine Augen einfach zu Langsam ^^
Hat denn dein Monitor auch 150hz?
Ich habe den Verdacht du nutzt einen 60hz Monitor, da bringen dir mehr fps außer tearing nichts
n8mahr
Commodore
- Registriert
- Aug. 2006
- Beiträge
- 4.247
@Wolfgang : an sich schöner Artikel, ABER:
Er wirft unnötig viele Fragen auf. Wenn ich Kommentare lese wie "Schade, dass es kein multiGPU mehr gibt" und ähnliches, dann ist - aus meiner Sicht - einfach nicht deutlich genug herausgestellt worden, dass SLI/CF das reiten eines toten Gauls ist wegen Vulcan /DX12 !
Früher (tm) brauchte man den Treiber, also CF/SLI. Derzeit ist die "Zwischenzeit". In Zukunft gibt's DX12 und Vulcan mit eingebauter multiGPU-Unterstützung, die vom Prinzip her besser ist als alles, was SLI und CF zustande gebracht haben - weil sie Herstellerunabhängig arbeitet.
Fakt ist: ältere Spiele laufen meist problemlos mit CF/Sli. Schlimmstenfalls schaltet man es ab und fertig. Aktuelle Spiele laufen nicht gut? Ja, "Zwischenzeit".
Zukünftige Spiele werden sicherlich auch daran gemessen werden, wie sie multiGPU unterstützen. Oder ist hier jemand der Meinung, Programme die nur einen CPU-Kern ausnutzen, sind noch zeitgemäß? Höchstens Shintel-Fanboys...
Er wirft unnötig viele Fragen auf. Wenn ich Kommentare lese wie "Schade, dass es kein multiGPU mehr gibt" und ähnliches, dann ist - aus meiner Sicht - einfach nicht deutlich genug herausgestellt worden, dass SLI/CF das reiten eines toten Gauls ist wegen Vulcan /DX12 !
Früher (tm) brauchte man den Treiber, also CF/SLI. Derzeit ist die "Zwischenzeit". In Zukunft gibt's DX12 und Vulcan mit eingebauter multiGPU-Unterstützung, die vom Prinzip her besser ist als alles, was SLI und CF zustande gebracht haben - weil sie Herstellerunabhängig arbeitet.
Fakt ist: ältere Spiele laufen meist problemlos mit CF/Sli. Schlimmstenfalls schaltet man es ab und fertig. Aktuelle Spiele laufen nicht gut? Ja, "Zwischenzeit".
Zukünftige Spiele werden sicherlich auch daran gemessen werden, wie sie multiGPU unterstützen. Oder ist hier jemand der Meinung, Programme die nur einen CPU-Kern ausnutzen, sind noch zeitgemäß? Höchstens Shintel-Fanboys...
gerzerk schrieb:Hoho.... 2x 290x "Die Hard" mode. Das Teil hast Du sicherlich in einer Kühlkammer aufgestellt.
Ja so ungefähr, es war eine Mischung aus Ventilatoren, 120mm Lüfter und Ohrenschützer für das Turbinengeräusch im Hintergrund (;
Nai
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.584
Es ist ja nicht so als ob explizites Multi-GPU mit DirectX 12/Vulkan neu dazu gekommen wäre; es ging schon mit DirectX 11 und OpenGL und war nur etwas umständlicher.n8mahr schrieb:@Wolfgang : an sich schöner Artikel, ABER:
Früher (tm) brauchte man den Treiber, also CF/SLI. Derzeit ist die "Zwischenzeit". In Zukunft gibt's DX12 und Vulcan mit eingebauter multiGPU-Unterstützung, die vom Prinzip her besser ist als alles, was SLI und CF zustande gebracht haben - weil sie Herstellerunabhängig arbeite
Zukünftige Spiele werden sicherlich auch daran gemessen werden, wie sie multiGPU unterstützen. Oder ist hier jemand der Meinung, Programme die nur einen CPU-Kern ausnutzen, sind noch zeitgemäß? Höchstens Shintel-Fanboys...
Das Problem ist aber, dass multi GPU sich nicht so programmiert wie Einkern vs Mehrkern, sondern wie Shared Memory vs Distributed Memory. Da muss man sich auf einmal Gedanken machen, wie man
die Berechnungen und die Daten auf die GPUs aufteilt so dass:
1) Die Kommunikation zwischen den GPUs minimiert wird
2) Die GPUs gleichzeitig rechnen können während sie Daten kopieren
3) Der Speicher von keiner GPU überquillt
4) Es kein Lastungleichgewicht entsteht, so dass eine GPU die andere GPU aufhält
Bei einfacheren Szenen bzw Renderern mag dieses Aufteilen noch ganz gut gehen und relativ einfach sein. Doch bei komplexeren Engines kommt man da schnell an die Grenzen des von dem Aufwand her und von der Technik her machbaren....
Flynn74
Lieutenant
- Registriert
- Juni 2005
- Beiträge
- 945
Das hier mit 8 PCIE Lanes pro Karte getestet wurde sehe ich als vollkommen unproblematisch.
Ich habe erst kürzlich mein SLI System von einem 40 Lanes Prozessor zu einem 16 Lanes Prozessor "downgegraded" (ich wollte eine höhere Single Core Leistung).
Bei den obigatorischen 3DMark Tests hatte ich nach dem "Downgrade" BESSERE Ergebnisse beim Graphics Score. Zwar nur minimal da es ja noch immer die gleichen Karten waren, aber es war definitiv kein Rückschritt oder gar Nachteil. Die SLI HB Bridge übernimmt den Job zum Großteil und erledigt ihn vorzüglich.
Hier die Scores: 2 x 8 Lanes vs 2 x 16 Lanes
Ich bin mir sicher viele verdammen SLI Systeme aus zwei Gründen: entweder sie haben es selber nie getestet und ihre Infos vom Hörensagen ODER die Erfahrungen beruhen auf Erlebnissen die 10 Jahre und länger zurückliegen.
Ich mag mein SLI System und werde sicher auch mit der kommenden Kartengeneration ein solches nutzen.
Den CB Test hier sehe ich als wenig repäsentativ und - ich mag mich täuschen - er erscheint mir ein wenig voreingenommen und einzig zum Zwecke erstellt worden zu sein um zeigen wie sinnlos Multi-GPU doch ist.
Ich habe erst kürzlich mein SLI System von einem 40 Lanes Prozessor zu einem 16 Lanes Prozessor "downgegraded" (ich wollte eine höhere Single Core Leistung).
Bei den obigatorischen 3DMark Tests hatte ich nach dem "Downgrade" BESSERE Ergebnisse beim Graphics Score. Zwar nur minimal da es ja noch immer die gleichen Karten waren, aber es war definitiv kein Rückschritt oder gar Nachteil. Die SLI HB Bridge übernimmt den Job zum Großteil und erledigt ihn vorzüglich.
Hier die Scores: 2 x 8 Lanes vs 2 x 16 Lanes
Ich bin mir sicher viele verdammen SLI Systeme aus zwei Gründen: entweder sie haben es selber nie getestet und ihre Infos vom Hörensagen ODER die Erfahrungen beruhen auf Erlebnissen die 10 Jahre und länger zurückliegen.
Ich mag mein SLI System und werde sicher auch mit der kommenden Kartengeneration ein solches nutzen.
Den CB Test hier sehe ich als wenig repäsentativ und - ich mag mich täuschen - er erscheint mir ein wenig voreingenommen und einzig zum Zwecke erstellt worden zu sein um zeigen wie sinnlos Multi-GPU doch ist.
Zuletzt bearbeitet:
Hatte auch seit 2011 bis zur 980 Ti jede Generation ein SLI oder Crossfire Setup. Es hat mir die meiste Zeit viel Spaß gemacht und einige Spiele konnte man auch ohne offizielle Profile über den nvidia Inspector mit nutzbar machen. Klar das nicht jedes Spiel dann mit >90 % skaliert...aber bei vielen konnte man doch recht gute Ergebnisse erzielen.
MADman_One
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.722
Hylou schrieb:Kollege von mir befeuert 2 1080Ti und als ihn fragte was er denn für Probleme habe kam die Antwort.. Keine.
Ich spiele schon länger mit SLI (GTX 680 SLI -> Titan classic SLI -> Titan X SLI -> 1080ti SLI) und habe auch wenig echte Probleme. Es kommt immer darauf an was man als Problem wahrnimmt. Ich bin zum Beispiel relativ unempfindlich was Mikrorucker angeht und zocke auf einem großen 40" UHD Panel was kein Gsync oder ähnliches kann, brauche daher auch keine superflüssigen FRametimes jenseits der 60 fps. Daher können hier durchaus beide Fraktionen recht haben.
Ich persönlich spiele aber in der letzten Zeit zunehmend mehr nur noch auf einer Karte, wenn das Game >45 fps in UHD die meiste Zeit halten kann. Wenn nicht, dann schalte ich die zweite Karte zu. Bei ME:A und Witcher 3 z.B. empfand ich das SLI zuletzt als sehr hilfreich. Bei Elite Dangerous dagegen ist es z.B. eher eine 300W Zusatzheizung ohne echten Mehrwert, zudem mit blinkenden Texturen. Daher spiele ich da ohne. Da ich aktuell wenig Topaktuelles spiele sondern eher Spiele die schon ein paar Jahre auf dem Markt sind, komme ich immer öfter ohne das SLI aus. Was bei aktuellen Raumtemperaturen jenseits der 30°C durchaus angenehm ist, nicht noch zusätzlich Wärme zu erzeugen.
Für die Zukunft bin ich aktuell aber sehr unschlüssig ob ich nochmal auf ein SLI setzen soll. Trotz 44 Lanes wird es dank NVMe SSDs und 10 GbE NICs eh immer eng mit den Lanes bei mir und der Mehrwert von SLI hat für mich spürbar abgenommen. Mal sehen was ich mache wenn die neuen Generationen von Grafikkarten verfügbar sind.
Wäre halt schon ein Traum so ne 1080Ti und eine Vega dann kannst immer jenach Spiel entscheidenIscaran schrieb:AoTs in DX12 kann multi-GPU:
Sogar als Kombo zwischen Fury und Titan
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Sniper Elite offenbar auch:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/News/Multi-GPU-Modus-DirectX-12-1220948/
Gibt vielleicht doch einen Grund warum die Studios jetzt mehr auf DX12 umschwenken und dass damit AMD/nVidia den CF/SLI Support (für DX11 einstellen, denn unter DX12/Vulkan ist das "Problem" anders gelöst)
EDIT: Nachtrag, auch Vulkan kann dies mittlerweile, mittelfristig denke ich wird sich das viel eher durchsetzen als die Verbreitung über die Hersteller, wenn die API-Moden "gut funktionieren".
https://arstechnica.com/gadgets/201...compatibility-as-khronos-looks-to-the-future/