Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test CrossFire & SLI: Früher meist schnell, heute meist schlecht
- Ersteller Wolfgang
- Erstellt am
- Zum Test: CrossFire & SLI: Früher meist schnell, heute meist schlecht
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.471
@r4yn3
aus wiki
Skylake (microarchitecture) - Wikipedia
Support for 16 PCI Express 3.0 lanes from CPU, 20 PCI Express 3.0 lanes from PCH (LGA 1151)
(Sorry, meine geschätzten 20+24 waren nicht korrekt, hatte da wohl noch was Anderes im Hinterkopf.
Habe das Board schon seit Polaris und lange nicht mehr nachgeschaut.)
Werde am WE mal in GPU-Z testen.
Die Anzeige im GPU-Z auf Steckplatz 3 als primäre Graka ist aber 16x gewesen.
(Ist meine Bessere und ich war zu faul, zum Umstecken auf Platz 1)
Kann ja sein, das bei max. gleichzeitiger Nutzung , sprich während GAME, von 4 Lanes für Sata+USB die 16x übrig bleiben und genutzt werden.
Habe auch keinen großen Unterschied zu Platz 1+2 festgetellt, der ja bei 4x auffallen müsste.
(Mit den alten RX480 hatte ich vorher Platz 1+2 je 8x.)
Platz 1+3 ist halt thermisch sehr günstig für mich, vor Allem, weil ich da auch die Seitenlüfter 2x120 Blow In habe.
Habe vorab schon mal recherchiert:
Im worst Case würden 4x per Chipsatz ca. 5-7% kosten. (sicherlich auch abhängig von der Graka+Auflösung)
https://www.3dcenter.org/news/performance-von-pci-express-11-20-30-sowie-x4-x8-x16-untersucht
Die Tests wurden von TP mit einer 1080 ausgeführt.
Das würde man dann nur ohne fps-Limit bei den max fps merken, oder durch Ruckler.
Nach m.E. hilft aber fps-Limit auch beim Streamen, sodas weniger Ruckler auftreten.
Kommt noch dazu, das die 56 ca. 14% weniger Bandbreite braucht als die 64 und somit deutlich mehr Luft hat.
64/56=1,14. Kommt außerdem positiv hinzu, das bei Mir das Bild vom langsamen 3.Platz(primär) direkt an den Moni geht. Somit sollte der Zeitverzug vom schnellen 1.Platz (jedes 2.Bild) zum 3.Platz kaum eine Rolle spielen.
Typischerweise kann es mal bei einem großen Knall mit vielen Partikeln kurz ruckeln, macht es aber auch bei
Single-Vega, weil Vega nicht soviel Partikel-Leistung hat wie Pascal.
Mein Wunsch an CB: pack den Sandy mal wieder aus:
https://www.computerbase.de/artikel/grafikkarten/bericht-pcie-3-0-vs-pcie-2-0.1885/seite-5
Und bitte mal die 56er als Cf mittesten.
aus wiki
Skylake (microarchitecture) - Wikipedia
Support for 16 PCI Express 3.0 lanes from CPU, 20 PCI Express 3.0 lanes from PCH (LGA 1151)
(Sorry, meine geschätzten 20+24 waren nicht korrekt, hatte da wohl noch was Anderes im Hinterkopf.
Habe das Board schon seit Polaris und lange nicht mehr nachgeschaut.)
Werde am WE mal in GPU-Z testen.
Die Anzeige im GPU-Z auf Steckplatz 3 als primäre Graka ist aber 16x gewesen.
(Ist meine Bessere und ich war zu faul, zum Umstecken auf Platz 1)
Kann ja sein, das bei max. gleichzeitiger Nutzung , sprich während GAME, von 4 Lanes für Sata+USB die 16x übrig bleiben und genutzt werden.
Habe auch keinen großen Unterschied zu Platz 1+2 festgetellt, der ja bei 4x auffallen müsste.
(Mit den alten RX480 hatte ich vorher Platz 1+2 je 8x.)
Platz 1+3 ist halt thermisch sehr günstig für mich, vor Allem, weil ich da auch die Seitenlüfter 2x120 Blow In habe.
Habe vorab schon mal recherchiert:
Im worst Case würden 4x per Chipsatz ca. 5-7% kosten. (sicherlich auch abhängig von der Graka+Auflösung)
https://www.3dcenter.org/news/performance-von-pci-express-11-20-30-sowie-x4-x8-x16-untersucht
Die Tests wurden von TP mit einer 1080 ausgeführt.
Das würde man dann nur ohne fps-Limit bei den max fps merken, oder durch Ruckler.
Nach m.E. hilft aber fps-Limit auch beim Streamen, sodas weniger Ruckler auftreten.
Kommt noch dazu, das die 56 ca. 14% weniger Bandbreite braucht als die 64 und somit deutlich mehr Luft hat.
64/56=1,14. Kommt außerdem positiv hinzu, das bei Mir das Bild vom langsamen 3.Platz(primär) direkt an den Moni geht. Somit sollte der Zeitverzug vom schnellen 1.Platz (jedes 2.Bild) zum 3.Platz kaum eine Rolle spielen.
Typischerweise kann es mal bei einem großen Knall mit vielen Partikeln kurz ruckeln, macht es aber auch bei
Single-Vega, weil Vega nicht soviel Partikel-Leistung hat wie Pascal.
Mein Wunsch an CB: pack den Sandy mal wieder aus:
https://www.computerbase.de/artikel/grafikkarten/bericht-pcie-3-0-vs-pcie-2-0.1885/seite-5
Und bitte mal die 56er als Cf mittesten.
Zuletzt bearbeitet:
vinacis_vivids
Ensign
- Registriert
- Juli 2004
- Beiträge
- 134
Naja, der CB Test ist nutzlos, weil die Testplattform PCI-E Lanes limitert ist, Threadripper muss her. Und keine Titel wie RoTR, Deus EX, GoW4, SE4, AoTS, die auch modernere API verwenden.
M
matty2580
Gast
Am besten einen Test-Parkour erstellen, wo AMD sehr gut abschneidet.^^
CB hatte früher den Spitznamen Nvidia-Base, mit hunderten teilweise irrationalen Post hier dazu. Heute würde ich CB eher als AMD-Base bezeichnen. Bei PCGH z.B. schneiden Ryzen und Vega oft deutlich schlechter ab, auch bei vielen anderen Seiten im Netz. Warum wohl? ^^
Und obwohl AMD-Base dir schon sehr entgegen kommt, reicht dir dass immer noch nicht. ^^
CB hatte früher den Spitznamen Nvidia-Base, mit hunderten teilweise irrationalen Post hier dazu. Heute würde ich CB eher als AMD-Base bezeichnen. Bei PCGH z.B. schneiden Ryzen und Vega oft deutlich schlechter ab, auch bei vielen anderen Seiten im Netz. Warum wohl? ^^
Und obwohl AMD-Base dir schon sehr entgegen kommt, reicht dir dass immer noch nicht. ^^
C
Cassiopea
Gast
Erst Intel Base dann AMD Base langsam wird es echt lächerlich, werdet euch mal einig.
L
Laggy.NET
Gast
Ich finds allgemien interessant, dass erst jetzt so deutlich von SLI und Crossfire abgeraten wird.
Die Probleme bezüglich Leistungsskalierung und Frametimes bestehen schon seit es die Technik überhaupt gibt, also seit weit über 10 Jahren.
Und wer die Treiberchangelogs und offenen Probleme, die dort beschrieben werden durchgelesen hat, der stellt fest, dass die meisten Probleme wie darstellungsfehler, flackernde Objekte und Texturen und nicht funktionierende Grafikfeatures zuhauf auf das Konto von Multi GPU Systemen gehen.
Multi GPU war und ist schon immer Schrott gewesen. Schön, dass sich die Erkenntnis langsam durchsetzt. Jetzt, wo der praktisch einzige Unterschied zu damals die immer geringere Verfügbarkeit ist.
Schön, dass der Mist endlich ausstirbt. Nichts wäre schlimmer gewesen, als wenn sich die Anforderungen neuer Spiele an High End Multi GPU Systemen orientiert hätten und man daher die ganzen Nachteile in Kauf nehmen hätte müssen, wenn man mit max. Settings spielen wollte. Ab diesem Punkt hätte ich nämlich PC Gaming den Rücken gekehrt...
Die Probleme bezüglich Leistungsskalierung und Frametimes bestehen schon seit es die Technik überhaupt gibt, also seit weit über 10 Jahren.
Und wer die Treiberchangelogs und offenen Probleme, die dort beschrieben werden durchgelesen hat, der stellt fest, dass die meisten Probleme wie darstellungsfehler, flackernde Objekte und Texturen und nicht funktionierende Grafikfeatures zuhauf auf das Konto von Multi GPU Systemen gehen.
Multi GPU war und ist schon immer Schrott gewesen. Schön, dass sich die Erkenntnis langsam durchsetzt. Jetzt, wo der praktisch einzige Unterschied zu damals die immer geringere Verfügbarkeit ist.
Schön, dass der Mist endlich ausstirbt. Nichts wäre schlimmer gewesen, als wenn sich die Anforderungen neuer Spiele an High End Multi GPU Systemen orientiert hätten und man daher die ganzen Nachteile in Kauf nehmen hätte müssen, wenn man mit max. Settings spielen wollte. Ab diesem Punkt hätte ich nämlich PC Gaming den Rücken gekehrt...
Aslo schrieb:Für die Technik muss mal eine Universallösung her, so dass keine Treiberprofile notwendig sind.
Die gibt es schon seit 3 Jahren in DX12 und Vulkan jedoch müssen die Spielentwickler diese Features auch aktivieren/optimieren aber das wird sicher nicht passieren. Die haben wichtigeres zu tun als Multi-GPU Support für weniger als 0.5% der Spieler einzubauen.
Laggy.NET schrieb:Multi GPU war und ist schon immer Schrott gewesen.
Nicht beim Voodoo 2.
derfledderer
Lt. Commander
- Registriert
- Sep. 2014
- Beiträge
- 1.322
Ich kann den Artikel so 1:1 unterschreiben. Die mega Ruckler bei Battlefront gibt es so auch seit Anfang an bei Battlefield 1. Tatsächlich unspielbar. Ich bin schon sehr enttäuscht darüber, dass ich mit meinen zwei Vegas nichts angefangen kann und gleichzeitig keine schnellere GPU von AMD existiert.
Scofield_M
Lt. Junior Grade
- Registriert
- Feb. 2011
- Beiträge
- 291
Damals wahr alles besser... da hat man noch Leistungs Unterschiede gemerkt. 9800 GX 2 von EVGA. Mich hat es damals echt gereizt noch eine davon zum kaufen, als Quad SLI laufen zu lassen. Einfach nur haben. 😂 wäre doch ein Quad SLI gewesen oder irre ich mich da jetzt?!
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.471
@r4yn3
Ich habe am WE nochmal Steckplatz 3+1 getestet.
Der Rendertest läuft erfolgreich mit 2x16@3.0:
Wie kann Das sein, Spekulation:
1. die 56 nutzt intern weniger Lanes als die big Chips(Ti=16,64LC=12,64=10 und 56=ca.8 ???),
reicht Dicke bei Gesamt 16+20 Lanes von CPU+Chipsatz.
2. der 1. Steckplatz(16x) ist Sender+Empfänger und managed evtl. sogar den Ram-Pool.
3. der 3. Steckplatz(4x @ 16x ???), =bei mir Ausgabegerät"primär", ist überwiegend Empfänger
im Arbeitszyklus Geometrie von der CPU + Gamedaten vom Ram
und im Framepacing-Zyklus das Zwischenbild von Steckplatz 1.
Ruckler + Meldung 4x@3.0 würde ich dann nur bei einem I/O-Wechsel bekommen.
4. Der 3. Steckplatz ist doch besser verdrahtet als im Manual beschrieben (???).
Bei dem CB-Test könnte ich mir auch vorstellen, das die Temps abartig waren,
wg. der Einbausituation mit Ref.-Cf.
Da bricht dann der HBM-Takt gerne mal ein, gerade bei 4k ist Das tödlich.
Angemessen wäre ohnehin bei 4k ein HBM-Takt von 1000...1020.(statt Throtteln mit 800 !)
Ergo = bei Nutzung von Platz 1+2 besser h2o einplanen.
Wer Geld hat für 2x Highend + Top-4k-HDR-Moni(TV) hat auch Geld für TR oder Intel-Pendant mit vollen Lanes.
(nur die CB-Experten anscheinend nicht, die dann von verwaisten Systemen faseln. = Armutszeugnis)
Hoffentlich zeigt HWLuxx mal wie es geht.
Ansonsten bitte für mehr Infos youtube nutzen oder googlen nach Reviews mit ordentlichem Prozzi.
z.Bsp.:
Auch hier im Review gilt natürlich meine Anmerkung von Do. = ohne geeigneten HBM-Takt ist 4k witzlos !!!
Daher Bsp. zu min fps mit 1440p:
"Division" ist nicht dabei, weil beide Redaktionen zu faul zum googlen waren:
With AMD Radeon RX 480 8GB CrossFire we were able to run at 1440p in this game with "Ultra" preset.
However, we had to make one image quality adjustment else the performance was very choppy and stuttered.
We found that we had to disable the Wind Effected Snow option. At "Ultra" settings this feature is enabled.
However, with AMD RX 480 CrossFire for some reason this one particular specific setting caused
performance to stutter greatly in this game. Disabling it brought about smooth performance. It could be a bug,
or some component of it just doesn't work well with CrossFire. After disabling Wind Effected Snow,
"Ultra" settings were very enjoyable in this game on RX 480 CrossFire at 1440p with great framerates.
--> Immer in den Spieleforen schlau machen!
btw.
-Das fps-Limit würde ich dann ca. 10-15fps über min legen.-
Die richtigen Fanboys unter Wasser lassen die 64 mit HBM 1150 statt 945(= 21,7% ) laufen.
(ich persönlich brauche auch nicht max.Tess., sorry 1080 bei Dir nichts im Treiber einstellbar)
Mit Grundeinstellung ist 64cf gerade mal so schnell in TS wie ich mit 56cf-hbm@900 bei avg.200..220W(#192) .
Also die Ergebnisse von Reviews@Stock nicht überbewerten.
Die Redaktionen sollen die Reste-Ti´s und Titanen verscherbeln helfen.
btw.
Die nächste Gen. NV braucht dann schon den NV-Link zum "kleinen" Preis von zusätzlich 599,-.
(bei 2x 1180, wer nicht auf TI next warten kann)
UND
mit HDR ist Pascal eine Trauerspiel.
Ich habe am WE nochmal Steckplatz 3+1 getestet.
Der Rendertest läuft erfolgreich mit 2x16@3.0:
Wie kann Das sein, Spekulation:
1. die 56 nutzt intern weniger Lanes als die big Chips(Ti=16,64LC=12,64=10 und 56=ca.8 ???),
reicht Dicke bei Gesamt 16+20 Lanes von CPU+Chipsatz.
2. der 1. Steckplatz(16x) ist Sender+Empfänger und managed evtl. sogar den Ram-Pool.
3. der 3. Steckplatz(4x @ 16x ???), =bei mir Ausgabegerät"primär", ist überwiegend Empfänger
im Arbeitszyklus Geometrie von der CPU + Gamedaten vom Ram
und im Framepacing-Zyklus das Zwischenbild von Steckplatz 1.
Ruckler + Meldung 4x@3.0 würde ich dann nur bei einem I/O-Wechsel bekommen.
4. Der 3. Steckplatz ist doch besser verdrahtet als im Manual beschrieben (???).
Bei dem CB-Test könnte ich mir auch vorstellen, das die Temps abartig waren,
wg. der Einbausituation mit Ref.-Cf.
Da bricht dann der HBM-Takt gerne mal ein, gerade bei 4k ist Das tödlich.
Angemessen wäre ohnehin bei 4k ein HBM-Takt von 1000...1020.(statt Throtteln mit 800 !)
Ergo = bei Nutzung von Platz 1+2 besser h2o einplanen.
Wer Geld hat für 2x Highend + Top-4k-HDR-Moni(TV) hat auch Geld für TR oder Intel-Pendant mit vollen Lanes.
(nur die CB-Experten anscheinend nicht, die dann von verwaisten Systemen faseln. = Armutszeugnis)
Hoffentlich zeigt HWLuxx mal wie es geht.
Ansonsten bitte für mehr Infos youtube nutzen oder googlen nach Reviews mit ordentlichem Prozzi.
z.Bsp.:
Auch hier im Review gilt natürlich meine Anmerkung von Do. = ohne geeigneten HBM-Takt ist 4k witzlos !!!
Daher Bsp. zu min fps mit 1440p:
"Division" ist nicht dabei, weil beide Redaktionen zu faul zum googlen waren:
With AMD Radeon RX 480 8GB CrossFire we were able to run at 1440p in this game with "Ultra" preset.
However, we had to make one image quality adjustment else the performance was very choppy and stuttered.
We found that we had to disable the Wind Effected Snow option. At "Ultra" settings this feature is enabled.
However, with AMD RX 480 CrossFire for some reason this one particular specific setting caused
performance to stutter greatly in this game. Disabling it brought about smooth performance. It could be a bug,
or some component of it just doesn't work well with CrossFire. After disabling Wind Effected Snow,
"Ultra" settings were very enjoyable in this game on RX 480 CrossFire at 1440p with great framerates.
--> Immer in den Spieleforen schlau machen!
btw.
-Das fps-Limit würde ich dann ca. 10-15fps über min legen.-
Die richtigen Fanboys unter Wasser lassen die 64 mit HBM 1150 statt 945(= 21,7% ) laufen.
(ich persönlich brauche auch nicht max.Tess., sorry 1080 bei Dir nichts im Treiber einstellbar)
Mit Grundeinstellung ist 64cf gerade mal so schnell in TS wie ich mit 56cf-hbm@900 bei avg.200..220W(#192) .
Also die Ergebnisse von Reviews@Stock nicht überbewerten.
Die Redaktionen sollen die Reste-Ti´s und Titanen verscherbeln helfen.
btw.
Die nächste Gen. NV braucht dann schon den NV-Link zum "kleinen" Preis von zusätzlich 599,-.
(bei 2x 1180, wer nicht auf TI next warten kann)
UND
mit HDR ist Pascal eine Trauerspiel.
Zuletzt bearbeitet:
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.694
Es wäre schonmal ein Anfang wenn du deine Mainboardbezeichnung erwähnen würdest.
Aber wie scho geschrieben musst du ein Mainboard mit PLX Chip haben der die 16 Lanes der CPU auf 3 mechanische x16 Slots verteilt. Eine Chipsatz kann elektrisch keine 16 Lanes bereitstellen.
Ob sich das nun speziell für CF positiv bemerkbar macht müsste man testen, aber es wird schwer abgesehen vom Mainboard jemanden mit den gleichen Specs zu finden.
Zum Rest, ja es wäre schön wenn sich CB das genauer ansehen würde, wenn doch andere scheinbar gute Ergebnisse erreichen können.
Aber wie scho geschrieben musst du ein Mainboard mit PLX Chip haben der die 16 Lanes der CPU auf 3 mechanische x16 Slots verteilt. Eine Chipsatz kann elektrisch keine 16 Lanes bereitstellen.
Ob sich das nun speziell für CF positiv bemerkbar macht müsste man testen, aber es wird schwer abgesehen vom Mainboard jemanden mit den gleichen Specs zu finden.
Zum Rest, ja es wäre schön wenn sich CB das genauer ansehen würde, wenn doch andere scheinbar gute Ergebnisse erreichen können.
vinacis_vivids
Ensign
- Registriert
- Juli 2004
- Beiträge
- 134
derfledderer schrieb:Ich kann den Artikel so 1:1 unterschreiben. Die mega Ruckler bei Battlefront gibt es so auch seit Anfang an bei Battlefield 1. Tatsächlich unspielbar. Ich bin schon sehr enttäuscht darüber, dass ich mit meinen zwei Vegas nichts angefangen kann und gleichzeitig keine schnellere GPU von AMD existiert.
bf1 DX12 mGPU@4k ultra: 54,9fps -> 100,2fps
https://us.hardware.info/reviews/78...results-battlefield-1-a-ghost-recon-wildlands
- Registriert
- Aug. 2018
- Beiträge
- 627
So ganz neu ist die Erkenntnis aber auch wieder nicht:Laggy.NET schrieb:Ich finds allgemien interessant, dass erst jetzt so deutlich von SLI und Crossfire abgeraten wird.
http://www.3dcenter.org/news/sli-und-crossfire-eignung-aktueller-spieletitel-auf-schwachem-niveau
SLI & CrossFire: R.I.P. (gesellt euch zu den dedizierten Gamer-Soundkarten )Laggy.NET schrieb:Schön, dass der Mist endlich ausstirbt. Nichts wäre schlimmer gewesen, als wenn sich die Anforderungen neuer Spiele an High End Multi GPU Systemen orientiert hätten und man daher die ganzen Nachteile in Kauf nehmen hätte müssen, wenn man mit max. Settings spielen wollte. Ab diesem Punkt hätte ich nämlich PC Gaming den Rücken gekehrt...
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.471
Spielbarkeit mit AMD:
Das hängt nicht nur von der Graka sondern auch vom Moni ab!
Gerade bei 4k-60Hz ist es unbedingt erforderlich mit CRU die Freesync-Range auf 33-60 zu ändern.
Bei 1440p ist i.d.R. LFC bei den modernen Monis verfügbar.
Damit sollten kleine Fluktuationen keine echtes Hindernis sein.
Bei FS2 (HDR600) und G-sync-HDR wird in Zukunft bei entspr. Unterstützung durch die Games auch
noch das Tonmapping im Moni wegfallen = noch geringeres Inputlag.
@r4ryn3
mein gutes altes Board (schon seit RX480Cf in Betrieb):
http://www.gigabyte.de/Motherboard/GA-Z170X-Gaming-5-EU-rev-10#ov
(Angabe 4x für 3 aber Rendertest trotzdem 16x erfolgreich)
@VV
nice Review, leider ohne min. fps,
besser das Neuere aus dem auch die Shots von oben waren, für min fps verwenden.
https://us.hardware.info/reviews/81...-is-it-still-worth-it-benchmarks-f1-2017-dx11
Daher nochmal zur Problematik des Reviews = HBM@Stock, daher Probs mit 4k vorprogrammiert:
besser für HBM@Stock = 1440p:
Die neueren Games können schon in 1440p-Ultra für HBM@Stock zuviel sein. Da muss dann mal ein Regler nach links oder HBM-Takt oc´ed.
@derfledderer
Leider ist DX12 nicht immer so ausgereift, wie man es sich wünscht.
Oft ist Cf@dx11 wesentlich ruhiger und ausgeglichener.
Gerade bei Total War sieht mein Gpu-Takt wesentlich glatter mit DX11+fps -Limit aus.
(für Single ist DX12 schon OK)
Ansonsten kann man gut bei der Speicherbandbreite sparen, wenn man statt MSAA auf FXAA oder besser TAA1x
wechseln kann. Genauso kann man Tess. auf 8x..6x reduzieren.
HBM-OC und fps-Limit sind ein MUSS. FPS-Limit hilft beim Streamen.
BF1 habe ich leider nicht, so das Du besser im Game-Thread nachfragst.
Da z.Bsp. Tipp =
make sure you set POST PROCESSING TO MEDIUM. Happy Smooth as Butter Gaming.
oder zusätzlich User.cfg
Another thing to try is something in battlefield 1 that everyone should do to utilize all their cpu
and that is to create a notepad in the battlefield 1 directory where the bf1.exe is located
naming it "user.cfg" and inside of the notepad named "user.cfg" write these lines
Thread.MaxProcessorCount 8
Thread.ProcessorCount 8
Thread.MinFreeProcessorCount 0
RenderDevice.RenderAheadLimit 2
GameTime.MaxVariableFps 59.94
(59.94 or whatever your own monitor refreshrate is 143.94/74.94 just .06 under)
btw.
MOTZER sind nur langweilig.
Lieber hier Tipps posten.
Und vor dem Kaufen die Liste von Wiki checken, ob das Game überhaupt geeignet ist.
Das hängt nicht nur von der Graka sondern auch vom Moni ab!
Gerade bei 4k-60Hz ist es unbedingt erforderlich mit CRU die Freesync-Range auf 33-60 zu ändern.
Bei 1440p ist i.d.R. LFC bei den modernen Monis verfügbar.
Damit sollten kleine Fluktuationen keine echtes Hindernis sein.
Bei FS2 (HDR600) und G-sync-HDR wird in Zukunft bei entspr. Unterstützung durch die Games auch
noch das Tonmapping im Moni wegfallen = noch geringeres Inputlag.
@r4ryn3
mein gutes altes Board (schon seit RX480Cf in Betrieb):
http://www.gigabyte.de/Motherboard/GA-Z170X-Gaming-5-EU-rev-10#ov
(Angabe 4x für 3 aber Rendertest trotzdem 16x erfolgreich)
@VV
nice Review, leider ohne min. fps,
besser das Neuere aus dem auch die Shots von oben waren, für min fps verwenden.
https://us.hardware.info/reviews/81...-is-it-still-worth-it-benchmarks-f1-2017-dx11
Daher nochmal zur Problematik des Reviews = HBM@Stock, daher Probs mit 4k vorprogrammiert:
besser für HBM@Stock = 1440p:
Die neueren Games können schon in 1440p-Ultra für HBM@Stock zuviel sein. Da muss dann mal ein Regler nach links oder HBM-Takt oc´ed.
@derfledderer
Leider ist DX12 nicht immer so ausgereift, wie man es sich wünscht.
Oft ist Cf@dx11 wesentlich ruhiger und ausgeglichener.
Gerade bei Total War sieht mein Gpu-Takt wesentlich glatter mit DX11+fps -Limit aus.
(für Single ist DX12 schon OK)
Ansonsten kann man gut bei der Speicherbandbreite sparen, wenn man statt MSAA auf FXAA oder besser TAA1x
wechseln kann. Genauso kann man Tess. auf 8x..6x reduzieren.
HBM-OC und fps-Limit sind ein MUSS. FPS-Limit hilft beim Streamen.
BF1 habe ich leider nicht, so das Du besser im Game-Thread nachfragst.
Da z.Bsp. Tipp =
make sure you set POST PROCESSING TO MEDIUM. Happy Smooth as Butter Gaming.
oder zusätzlich User.cfg
Another thing to try is something in battlefield 1 that everyone should do to utilize all their cpu
and that is to create a notepad in the battlefield 1 directory where the bf1.exe is located
naming it "user.cfg" and inside of the notepad named "user.cfg" write these lines
Thread.MaxProcessorCount 8
Thread.ProcessorCount 8
Thread.MinFreeProcessorCount 0
RenderDevice.RenderAheadLimit 2
GameTime.MaxVariableFps 59.94
(59.94 or whatever your own monitor refreshrate is 143.94/74.94 just .06 under)
btw.
MOTZER sind nur langweilig.
Lieber hier Tipps posten.
Und vor dem Kaufen die Liste von Wiki checken, ob das Game überhaupt geeignet ist.
Zuletzt bearbeitet:
- Registriert
- Aug. 2018
- Beiträge
- 627
Kein Grund, persönlich zu werden!GerryB schrieb:btw.
MOTZER sind nur langweilig.
Lieber hier Tipps posten.
Die Betitelung "MOTZER" ist auch völlig deplatziert, weil hier niemand gemotzt hat.
Der Test beleuchtet die aktuelle Situation bei "SLI & CrossFire" und endet mit der Empfehlung:
Die Zielgruppe des Artikels schließt also auch die ein, die ein(e) Upgrade/Neuanschaffung planen. Und denen sollte von "SLI & CrossFire" abgeraten werden. Das wurde wohlbegründet.Heutzutage sollten unter keinen Umständen mehr mit zwei Grafikkarten geplant werden, egal ob es sich um CrossFire oder um SLI handelt.
Die Testmethodik wurde infrage gestellt ("zu wenige PCIe Lanes pro Karte"). Die von 3DCenter zitierte Seite "GameGPU" testet auf der LGA2011(-v3)-Plattform und kommt trotzdem zu ihrem vernichtenden Urteil.
Wer noch auf "RX Vega & CrossFire" gesetzt hat, der hat sich IMHO sowieso nicht richtig informiert:
https://www.gamersnexus.net/news-pc/3005-amd-moving-away-from-crossfire-with-rx-vega
RX Vega 64 and RX Vega 56 will support CrossFire, technically speaking, but AMD noted that the industry is largely moving away from multi-GPU configurations.
Und für die, die das tote Pferd weiter reiten und "Tipps posten" wollen, gibt es übrigens schon einen Sammelthread:
https://www.computerbase.de/forum/t...-und-funktion-multipler-grafikkarten.1058631/
Wie @Laggy.NET finde ich es prima, dass die Developer Studios jetzt und zukünftig das ultimative Spieleerlebnis den Gamern ohne "SLI & CrossFire" nicht vorenthalten werden. Das Hobby wird nämlich langsam richtig teuer. Ich wage noch gar nicht daran zu denken, was mich demnächst eine GTX 2080 kosten wird, solange wir mindestens noch auf Navi 10 warten müssen, bis AMD wieder mit Nvidia konkurrieren kann und damit Grafikkarten preiswerter werden.
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.471
@L
Wer sich "fälschlicherweise" angesprochen fühlt kann sich ja wegducken.
Deutschland ist ein freies Land und Jeder kann machen, was Er will.
Wenn ich Cf/Sli ausprobieren möchte ist das mein Ding und sollte nicht vorab
schlecht gemacht werden.
Ich spiele nur gelegentlich und nehme nur ausgereifte Engines.
Der Summary von 3dC bezieht Testdaten von GameGpu. Das ist schön aber leider nicht aktuell,
weil am Day 1 gebencht.
Die Liste von wiki wird glaube ich besser gepflegt.
http://amdcrossfire.wikia.com/wiki/Crossfire_Game_Compatibility_List
btw.
AMD ist nicht weg von CF. Nur der Name wird für mGPU in DX12 nicht mehr benutzt und das Logo
erscheint nicht mehr beim Spieln mit DX12.
Wer sich "fälschlicherweise" angesprochen fühlt kann sich ja wegducken.
Deutschland ist ein freies Land und Jeder kann machen, was Er will.
Wenn ich Cf/Sli ausprobieren möchte ist das mein Ding und sollte nicht vorab
schlecht gemacht werden.
Ich spiele nur gelegentlich und nehme nur ausgereifte Engines.
Der Summary von 3dC bezieht Testdaten von GameGpu. Das ist schön aber leider nicht aktuell,
weil am Day 1 gebencht.
Die Liste von wiki wird glaube ich besser gepflegt.
http://amdcrossfire.wikia.com/wiki/Crossfire_Game_Compatibility_List
btw.
AMD ist nicht weg von CF. Nur der Name wird für mGPU in DX12 nicht mehr benutzt und das Logo
erscheint nicht mehr beim Spieln mit DX12.
- Registriert
- Aug. 2018
- Beiträge
- 627
Na, dann bin ich ja beruhigt.GerryB schrieb:Wer sich "fälschlicherweise" angesprochen fühlt kann sich ja wegducken.
Sorry, aber das kann ich aus keinem Post herauslesen. "Schlechtmachen" hat für mich nämlich immer etwas mit falschen Behauptungen zu tun.GerryB schrieb:... vorab schlecht gemacht ...
Zuletzt bearbeitet:
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.471
Ich bin auch beruhigt.
Theoretisch musste ich jetzt Alle Posts von Dir checken, ob Du auch ein Cf/Sli - Anwender bist und aus Erfahrung
sprichst. - geschenkt -
Nach über 10 Jahren Cf denke ich, nur selber Testen ist das Wahre.
Die Redaktionen sind mir immer zu kurz angebunden. Und im Wochenrückblick wurde eine sehr tendenziöse
Überschrift verwendet. NEIN Danke, das ist kein Interesse an der Materie.
Eine Redaktion, die ein Jahr für einen HDR-Test braucht und noch KEINEN UV-Test mit Vega publiziert hat
ist auf dem besten Weg vom Internet abgehängt zu werden.
Dummerweise ist CB da nicht Allein. Das Niveau in Dtl. fällt immer mehr ab.
Am Ende sind die Konsolen die Technologieträger für 4k-HDR und die PC`s sind immer noch im Winterschlaf.
Theoretisch musste ich jetzt Alle Posts von Dir checken, ob Du auch ein Cf/Sli - Anwender bist und aus Erfahrung
sprichst. - geschenkt -
Nach über 10 Jahren Cf denke ich, nur selber Testen ist das Wahre.
Die Redaktionen sind mir immer zu kurz angebunden. Und im Wochenrückblick wurde eine sehr tendenziöse
Überschrift verwendet. NEIN Danke, das ist kein Interesse an der Materie.
Eine Redaktion, die ein Jahr für einen HDR-Test braucht und noch KEINEN UV-Test mit Vega publiziert hat
ist auf dem besten Weg vom Internet abgehängt zu werden.
Dummerweise ist CB da nicht Allein. Das Niveau in Dtl. fällt immer mehr ab.
Am Ende sind die Konsolen die Technologieträger für 4k-HDR und die PC`s sind immer noch im Winterschlaf.
Zuletzt bearbeitet:
- Registriert
- Aug. 2018
- Beiträge
- 627
Bin ich nicht. Dachte aber lange und intensiv darüber nach: Mining & Gaming auf demselben PC war der Plan.GerryB schrieb:Theoretisch musste ich jetzt Alle Posts von Dir checken, ob Du auch ein Cf/Sli - Anwender bist und aus Erfahrung sprichst. - geschenkt -
Darum lese/las ich viele Artikel zu dem Thema ... dann auch noch die Kommentare dazu ... ich werde verunsichert (z. B. im vorliegenden Fall: falsche Testmethodik, geht ja gar nicht) ... ich lese also weiter.
Daran, dass beim Vega Launch viel über das Ende von CrossFire berichtet/geredet wurde, kann ich mich aber noch gut erinnern.
Vom Mining hat mich nicht zuletzt der Selbstversuch von CB abgebracht. Eigentlich will ich heute nur noch spielen.