-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Star Wars Battlefront 2: Auf dem PC wunderschön und superschnell
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Star Wars Battlefront 2: Auf dem PC wunderschön und superschnell
dMopp schrieb:Naja ich hab nen i5 (OC) mit ner 1070 (OC) und spiele 1440p.... Mal sehen ob ich die 2 Cores weniger mit den 1,4GHz mehr pro Core ausgleichen kann.
Deine 1070 erreicht mit "ultra"-Settings in 1440p um die 70FPS. Ergo wirst Du überhaupt nichts bemerken, da selbst ein Zweikerner bei 720p bereits über 80FPS erreicht...
Schnitz
Admiral
- Registriert
- Nov. 2005
- Beiträge
- 8.173
zombie schrieb:Hach wenn ich wüsste wo sich meine GTX750ti einordnet, dann könnte ich schwach werden und mir das Game holen.
Gibt eine Karte die man aus den Test als Vergleich herannehmen kann ?
Ich denke sie wird etwa 30% unter der 1050 Ti stehen wenn sie 4GB Ram hätte - mit 2 GB kannste das aber wohl vergessen.
Soweit ich das blicke hat CB von allen Karten (460, 960) die 4 GB Versionen im Testparcours. Die 1050 Ti gibt es eh nur mit 4 GB.
Zuletzt bearbeitet:
(Soweit ich das blicke hat CB von allen Karten (460, 960) die 4 GB Versionen im Testparcours.)
frkazid
Commander
- Registriert
- Aug. 2013
- Beiträge
- 2.492
Danke für den Test. Erfreulich hübsche und performante Engine.
Eine Frage hätte ich aber:
Warum hat denn Vega 64 andere avg. FPS in 4K zwischen dem normalen Test und dem HBCC-Test? Da die Angaben in FullHD und WQHD die selben sind wie im Test ohne HBCC geh ich mal von aus das Vega 64 eigentl. 62,4 FPS erreicht?!
Eine Frage hätte ich aber:
Warum hat denn Vega 64 andere avg. FPS in 4K zwischen dem normalen Test und dem HBCC-Test? Da die Angaben in FullHD und WQHD die selben sind wie im Test ohne HBCC geh ich mal von aus das Vega 64 eigentl. 62,4 FPS erreicht?!
N
nagus
Gast
Was soll der blödsinn die höheren HBMC werte für Vega nicht in die Ergebnisse mit einzurechnen?!
frkazid
Commander
- Registriert
- Aug. 2013
- Beiträge
- 2.492
Weil AMD selbst HBCC noch deaktiviert lässt.
https://www.computerbase.de/2017-08...st/#abschnitt_10_vorteile_der_vegaarchitekturAktuell ist der HBCC standardmäßig noch abgeschaltet, da die gesammelten Erfahrungen nicht ausreichend sind, um den HBCC durchweg zu aktivieren.
SKu
Fleet Admiral
- Registriert
- Aug. 2012
- Beiträge
- 11.343
dante`afk schrieb:
Höchstwahrscheinlich ein Anwenderfehler, denn Nvidia-Treiber sind durch das QM fehlerfrei.
Zuletzt bearbeitet von einem Moderator:
(Vollzitat entfernt)
frkazid schrieb:Eine Frage hätte ich aber:
Warum hat denn Vega 64 andere avg. FPS in 4K zwischen dem normalen Test und dem HBCC-Test? Da die Angaben in FullHD und WQHD die selben sind wie im Test ohne HBCC geh ich mal von aus das Vega 64 eigentl. 62,4 FPS erreicht?!
Stimmt! muss ein Bug sein in der Tabelle auf S1 im Test, da die anderen Zahlen (WQHD und FullHD mit den Werten aus dem HBCC-Test deckungsgleich sind.
Damit ist die Vega ja bis auf 7% und das in DX11 ! An einer 1080 Ti dran - na bitte es geht doch die Rohleistung auf die Strasse zu bingen bei genügend fordernden Games und guter Programmierung in-Game.
Umso spannender fände ich jetzt noch ein Ryzen-Intel @DX11/12 @Vega/Pascal Vergleich. (Sprich den DX11 vs 12 Test einmal komplett mit einem Ryzen wiederholen.
@CB: War die CPU jetzt eigentlich ein 8700K oder ein 6850K im Test ? Oder waren beide im Test aber in unterschiedlichen Teilen ?
Die Grafikkarten-Benchmarks sind auf einem Intel Core i7-8700K durchgeführt worden, der mit insgesamt 32 Gigabyte Arbeitsspeicher und einer Geschwindigkeit von DDR4-2.666 (16-16-16-38, Dual Rank) im Dual-Channel-Modus bestückt ist.
Oder soll der folgende Satz nicht bedeuten dass im DX11 vs 12 Test der 6850 benutzt wurde ? Sondern einfach nur dass ein 6850K@DX12 immer noch schlechter performed als ein 8700K@DX11 ?
DirectX 11 vs. DirectX 12 ... Denn die Performance ist zumindest auf einem Core i7-6850K durchweg schlechter als mit DirectX 11.
Sly123
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.606
Die RX 580 ist ja für 2k geeignet (2 fps fehlen?..). Die gehört doch eigentlich in die Empfehlungliste für ~60 fps.
Spätestens nach einer Treiberoptimierung sind die 60 fps drin.
Auch wenn mich das Spiel nicht interessiert ist die Technik schon interessant.
Spätestens nach einer Treiberoptimierung sind die 60 fps drin.
Auch wenn mich das Spiel nicht interessiert ist die Technik schon interessant.
Touchthemars
Banned
- Registriert
- Feb. 2007
- Beiträge
- 332
Gschwenni schrieb:Naja Forza is ja nach dem Treiberupdate vom Tisch und Battlefront jetz auch, bleibt halt Wolfenstein noch.
Tja war wohl nichts.
ZeusTheGod
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.068
Schaby schrieb:Ich versteh nicht, wieso bei unterschiedlichen Auflösungen an den Grafik-Details geschraubt wird? Somit ist auch dieser Test für die Katz.
Warum ist der Test damit für die Katz'? Wie wäre es denn besser? Alles immer auf max, auch wenn das Spiel in der höchsten Auflösung dann auf 95% der Grafikkarten unspielbar ist?
Ich finde "sinnvolle" Setting<->Auflösung Kombinationen perfekt aussagekräftig.
Iscaran schrieb:Bin ich eigentlich der einzige der die "verbesserten Schatten PCSS und HFTS" eher als grausig empfindet ? Und dabei kosten die neben der subjektiv wesentlich unschöneren Darstellung auch noch massig Leistung.
https://pics.computerbase.de/8/0/6/4/9/7-1080.136744069.jpg => Das ist imho das "schönste" und am echtesten wirkende Bild.
https://pics.computerbase.de/8/0/6/4/9/5-1080.1259532311.jpg
https://pics.computerbase.de/8/0/6/4/9/1-1080.1803517096.jpg (das ist wohl noch verbugged aber trotzdem)
"Echt" ist bei dem ersten Beispiel nichts.
Blätter die mehrere Meter über dem Boden sind, werfen einen absolut unscharfen Schatten:
http://img.fotocommunity.com/baum-m...9-8b00-40be-a291-5f8ee71b6848.jpg?height=1080
Auch auf folgendem Bild schön zu sehen, wie der Schatten mit steigender Distanz zum schattenwerfenden Objekt unscharf wird:
https://fotoschule.fotocommunity.de/wp-content/uploads/2016/02/lichtstrasse-1.jpg
Es ist oft schwierig, ad-hoc zu sagen, wie etwas in echt auszusehen hat, wenn man es von games anders gewöhnt ist. Ambient occlusion sieht in meinen Augen auch oft künstlich/ übertrieben aus. Allerdings ist es ohne noch weniger realistisch.
immortuos
Admiral
- Registriert
- Dez. 2012
- Beiträge
- 7.791
@CB: Irgendwie hat die Vega 64 im HBCC Diagramm mehr (avg) FPS in UHD als im normalen Diagramm drüber, was ist denn nun der richtige Wert?
Wenn die HBCC Werte stimmen ist die 1080 Ti in dem Spiel nur noch ~2,5% (avg) - 4% (Percentile) schneller als die V64 mit 16 GB HBCC? Das wäre ziemlich krass.
BTW: Musterbeispiel für die Umsetzung von DX12, perfekte Entlastung der CPU. Nicht.
Wenn die HBCC Werte stimmen ist die 1080 Ti in dem Spiel nur noch ~2,5% (avg) - 4% (Percentile) schneller als die V64 mit 16 GB HBCC? Das wäre ziemlich krass.
BTW: Musterbeispiel für die Umsetzung von DX12, perfekte Entlastung der CPU. Nicht.
Zuletzt bearbeitet:
cookie_dent
Commander
- Registriert
- März 2017
- Beiträge
- 2.896
SKu schrieb:Höchstwahrscheinlich ein Anwenderfehler, denn Nvidia-Treiber sind durch das QM fehlerfrei.
Der war gut
Ich frag mich nur grad warum die Vega 64 hier 15% vor der 1080 liegt und bei PCGH liegt die 1080 gut 10% vor der Vega (in 2.560 × 1.440)? Bei den schwächeren Karten sieht es ähnlich aus.
Beide testen mit Ultra Settings, nutzen aber wohl eine andere Szene.
Sind wir jetzt soweit das man sagen muss: In Szene sowieso liegt Vega vorne, in Szene blablabla liegt NVIDIA vorne?
Ich muss grad für mich rausarbeiten welche Aussagekraft die Tests gerade für mich haben....
SKu
Fleet Admiral
- Registriert
- Aug. 2012
- Beiträge
- 11.343
immortuos schrieb:@CB: Irgendwie hat die Vega 64 im HBCC Diagramm mehr (avg) FPS in UHD als im normalen Diagramm drüber, was ist denn nun der richtige Wert?
Offiziell: Der Wert aus der Tabelle mit den anderen GPUs. Warum? Weil HBCC kein standardmäßig aktiviertes Features einer Vega-GPU ist. Das ist für Standardnutzer interessant. Für technisch versierte Nutzer gilt dann eher der Wert mit aktiviertem HBCC.
immortuos
Admiral
- Registriert
- Dez. 2012
- Beiträge
- 7.791
SKu schrieb:Warum?
Ja warum? Ich meine natürlich nicht den Wert mit aktiviertem HBCC.
Ich sehe da bei deaktiviertem HBCC 62,3 FPS (avg) und im oberen Diagramm 59,8 FPS (avg).
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 4.869
- Antworten
- 40
- Aufrufe
- 4.193
T
- Antworten
- 105
- Aufrufe
- 22.465
- Antworten
- 88
- Aufrufe
- 11.529