• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test XCOM: Chimera Squad im Test: Ein gutes XCOM mit Vorteilen für Nvidia und Zen 2

Silverangel schrieb:
@Tigerkatze: Wenn man keinerlei Anspruch hat. kann man das durchaus machen. Mir ginge das Geruckel bei bis zu ca. 20-25 FPS auf FHD und minimalsten Settings sehr aufn Senkel. ;)
Von anderen Spielen ganz zu schweigen die dann nochmal deutlich schlechter aussehen.

Also XCOM 1 und 2 sollten auf jeden Fall flüssig laufen..wenn damit die ersten zwei Spiele der Serie
gemeint sind :P
 
  • Gefällt mir
Reaktionen: Mcr-King und Silverangel
Silverangel schrieb:
Ich zitiere mich gern selbst:
Mal paar Stellen wo er etwas höher geht, dafür aber auch andere wo man bei 12-15 landet.
Wenn das für dich ruckelfrei ist, viel Spaß. ;) Dürfte es für die Mehrzahl nicht sein.
Ansprechende Qualität scheinst du ja auch anders zu definieren als die meisten. ;)
Ich weiß nicht, wo Du wohnst und Corona haut da im Moment in Besuchsplanungen rein wie Hölle, ich könnte dir aber zeigen, daß die XComs mit der UHD ruckelfrei und in guter Quali laufen, wenn man es gescheit einstellt und genug RAM zuteilt. Gilt auch für andere Spiele, natürlich hauptsächlich ältere.
 
@Tigerkatze:
Brauchste nicht. Ich hab selber ne UHD630 und hab sogar explizit vorhin in Chimera den versuch gemacht. ;) Die Zahlen sind also ganz frisch gewesen.
Ändert auch an der restlichen Aussage nichts. Wenn für dich das jeweils ansprechend genug und ruckelfrei genug ist, ist das eben so. Deine Definition weicht da aber stark von der Mehrheit ab.
 
Silverangel schrieb:
@Tigerkatze:
Brauchste nicht. Ich hab selber ne UHD630 und hab sogar explizit vorhin in Chimera den versuch gemacht. ;) Die Zahlen sind also ganz frisch gewesen.
Ändert auch an der restlichen Aussage nichts. Wenn für dich das jeweils ansprechend genug und ruckelfrei genug ist, ist das eben so. Deine Definition weicht da aber stark von der Mehrheit ab.
Wenn Du eine 630 drin hast, welche Einstellungen hast Du getroffen und wieviel RAM hast du zugeteilt gehabt? Auf welchem Rechenknecht? Die 630er sind, aber das weiß Du eigentlich wohl noch besser wie ich, nicht alle gleich.
 
Jo mein Fehler, habs aufm Gameboy versucht. Wird mir ehrlich gesagt schon zu blöd.
Einstellungen hatte ich genannt, Minimaleinstellungen auf FHD, ist aufm 8700K und zuteilung von Ram is unnötig da dies automatisch geschieht (und auch mit händischer zuteilung von 8 GB gemacht, hat sich null geändert, wieso sollte es auch.)
Wenns für dich damit toll ist, genieß es doch einfach. :rolleyes:

Und nein, ich stell mein Hud nicht noch extra für dich um.
 

Anhänge

  • Anmerkung 2020-04-25 161414.jpg
    Anmerkung 2020-04-25 161414.jpg
    397,7 KB · Aufrufe: 386
  • Anmerkung 2020-04-25 161158.jpg
    Anmerkung 2020-04-25 161158.jpg
    622,8 KB · Aufrufe: 389
  • Anmerkung 2020-04-25 161041.jpg
    Anmerkung 2020-04-25 161041.jpg
    515,2 KB · Aufrufe: 375
  • Anmerkung 2020-04-25 161914.jpg
    Anmerkung 2020-04-25 161914.jpg
    81,8 KB · Aufrufe: 386
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Wäre interessant was ein Ryzen 5 3400G schafft.
 
qappVI schrieb:
Alles eine Sache der Optimierung. Ich find einfach toll, wie der 3600 an dem i9 9900K vorbeizieht.
Die Pro Takt Leistung / IPC des 3600 ist nicht höher als beim i9 und die GHz Zahl (3600=4,2Ghz Turbo
i9 all Core Turbo 4,6Ghz (~10% Differenz) ist deutlich geringer. Da kannst du viel optimieren, es erklärt
das Ergebnis (+22%) trotzdem nicht. Es sollte theoretisch ~ +10-15% sein. Für Intel.

Der 9900K ist in Multicore Anwendungen im Schnitt 33% schneller als der 3600:
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_multicoreapps
und in Spielen sind es 17% im Schnitt:
https://www.computerbase.de/2019-07...mm-test-performancerating-fuer-spiele-fps-fhd

Wäre schön, wenn da jemand eine detailliertere Analyse macht. Also bisschen mehr als:
Wir habens 2x getest mit gleichem Ergebnis. No offense, aber das finde ich als Erklärung zu wenig.

@SV3N
 
DonDonat schrieb:
... bei maximaler Treffer-Chance (die ja nicht 100% ist...) gleich 3x hintereinander vorbei Geschossen habe, hatte ich die Schnautze voll...
Ich verstehe bis heute auch nicht, was das mit diesen 95% als Maximum soll.
Das selbe in Fallout 4.

Sowas ist doch einfach nur schlechtes Game-Design. Wenn man sich perfekt und nahe genug positioniert, sollten auch 100% möglich sein.
Sowas erhöht die taktischen Möglichkeiten, da man sich darauf verlassen kann, dass sichere Schüsse auch sitzen.
 
  • Gefällt mir
Reaktionen: Mcr-King und xexex
USB-Kabeljau schrieb:
Ich verstehe bis heute auch nicht, was das mit diesen 95% als Maximum soll.

Verstehen tue ich das, da wird ein hoher Grad an Randomisierung erzwungen, damit (künstlich) die Spannung hoch gehalten werden kann und auch ein gewisser Wiederspielwert entsteht. Dadurch das es niemals sicher ist ein Ziel zu treffen, entstehen "oh shit!" Momente auf die man wieder rum reagieren muss, was die Spannung steigert.

Blöd nur das sowas nicht direkt konfigurierbar ist, ich habe weder am Iron Mode, noch an so einem Schwachsinn Interesse und wenn man 1m vom Gegner steht und dann mit einer Schrottflinte nicht trifft, wirkt es nur lächerlich und frustrierend.

Das blöde an der Geschichte ist, dass die Trefferquote bei Xcom gar nichts mit den angezeigten Werten zu tun hat und zum Beispiel auch davon beeinflusst wird, ob man vorher schon mal getroffen hat oder nicht. Dann sollen sie sich diese Angaben doch gleich in den A... stecken.
https://www.ufopaedia.org/index.php/Chance_to_Hit_(EU2012)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und USB-Kabeljau
KlaraElfer schrieb:
Die CPU Benchmarks können unmöglich korrekt sein, irgendetwas anderes als die CPU limitiert da. ;)
Der 9900K kann sich nicht vom 7700K absetzen --> kein CPU Limit.

Der 9900K taktet pro Kern nicht arg viel höher als der 7700k und es ist beides
Skylake und pro Kern ist gleich viel Cache vorhanden.
Wenn das Game nur 4 Kerne nutzt, wirst zwischen den beiden logischerweise kaum einen Unterschied sehen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, Rockstar85 und Mcr-King
modena.ch schrieb:
Der 9900K taktet pro Kern nicht arg viel höher als der 7700k und es ist beides
Skylake und pro Kern ist gleich viel Cache vorhanden.
Was das Game nur 4 Kerne nutzt, wirst zwischen den beiden logischerweise kaum einen Unterschied sehen können.
👍 Genau so ist es deshalb ist der i7 7700k immer noch gut und dank SMT auch noch eine ganze weile. 😉
 
Naja, ich plane eigentlich meinen 6700k am zweiten Standort im 21 zu ersetzen.
Jeh nach Game sind 8 Threads mit den Hintergrundtasks schon knapp und das Intel SMT ist ja
nicht besonders effektiv und die Sicherheitslücken sind auch so ne Sache.

Da wär mir ein Zen 3 auf nem günstigen X470er Brett lieber.

Neuere Engines lasten die Cores gut aus....
 
  • Gefällt mir
Reaktionen: Mcr-King
SV3N schrieb:
Hätte ich in der Form jetzt nicht unbedingt erwartet.
Ich auch nicht, und im Fall 3600 vs 9900K gehe ich eher von einem Fehler aus (die höhere IPC von Zen2 kann Intel durch einen exorbitanten Verbrauch und damit mögliche Taktfrequenzen aus Leistungssicht recht genau ausgleichen). Mehr Kerne bringen jedenfalls eher nichts, sonst müsste der 3900X nicht nur die paar MHz welche er höher boosten kann vorne liegen.

Interessanter wäre es wie viele Spiele durch "Optimierungen" (Intel-Compiler, Libs welche nur nach Vendor-ID gehen wie der Math-Lib, etc.) AMDs Chips benachteiligen.
 
  • Gefällt mir
Reaktionen: Mcr-King
iamunknown schrieb:
Interessanter wäre es wie viele Spiele durch "Optimierungen" (Intel-Compiler, Libs welche nur nach Vendor-ID gehen wie der Math-Lib, etc.) AMDs Chips benachteiligen.

Habe ich da etwa jemanden nach @Ned Flanders rufen gehört? :D
 
  • Gefällt mir
Reaktionen: Ned Flanders und Mcr-King
borizb schrieb:
Die Pro Takt Leistung / IPC des 3600 ist nicht höher als beim i9 und die GHz Zahl (3600=4,2Ghz Turbo
i9 all Core Turbo 4,6Ghz (~10% Differenz) ist deutlich geringer. Da kannst du viel optimieren, es erklärt
das Ergebnis (+22%) trotzdem nicht. Es sollte theoretisch ~ +10-15% sein. Für Intel.

Der 9900K ist in Multicore Anwendungen im Schnitt 33% schneller als der 3600:

Natürlich ist die IPC von Zen 2 höher als beim i9. Überhaupt gar keine Frage!
Bei Zen lag der IPC Rückstand zu Skylake, Kabylake, Coffelake bei 7-8%, Zen+ warens noch
3-5% und da Zen 2 15% IPC drauflegt, ist es ganz klar das Skylake weniger IPC hat als der letzte Zen.
Dass darüber überhaupt diskutiert werden muss?

Das was den Intel über Wasser hält ist sein höherer Takt und die bessere Latenz des Ringbus.
Was vor allem bei Games sichtbar wird.

Die inner CCX Latenz bei Zen ist übrigens schon seit der ersten Variante deutlich besser als bei Intel.
Erst wenn man auf den zweiten CCX ausweichen muss, steigt die Latenz deutlich.
Wenn man das zu nutzen weiss geht schon was......
Wenn ich also die 4 Threads die von dem Game genutzt werden auf einen CCX festnagel,
und die bessere Latenz des CCX vs Intel Ringbus betrachte, und die höhere IPC wäre das wohl ein Vorteil.
Was man aber spezifisch untersuchen müsste, das ist jetzt nur eine Theorie.


Dann mit 25% mehr Threads und mehr als 15% mehr Allcoretakt nur 33% Multicoreperformance rauszuholen ist
ziemlich schwach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und SVΞN
iamunknown schrieb:
Ich auch nicht, und im Fall 3600 vs 9900K gehe ich eher von einem Fehler aus (die höhere IPC von Zen2 kann Intel durch einen exorbitanten Verbrauch und damit mögliche Taktfrequenzen aus Leistungssicht recht genau ausgleichen). Mehr Kerne bringen jedenfalls eher nichts, sonst müsste der 3900X nicht nur die paar MHz welche er höher boosten kann vorne liegen.

Interessanter wäre es wie viele Spiele durch "Optimierungen" (Intel-Compiler, Libs welche nur nach Vendor-ID gehen wie der Math-Lib, etc.) AMDs Chips benachteiligen.
Ich glaube nicht daß hier irgendwas optimiert wurde. Das Spiel basiert auf der stark veralteten Unreal Engine 3 und der Verkaufspreis macht auch schon recht deutlich das da eher kein Entwickler die Engine auf Low Level Basis anfasst. Ich würde mal behaupten dass das Game bereits vor zig Jahren geplant war oder mit der Entwicklung begonnen wurde, anders kann ich mir eine sündhaft teure Lizenz der UE3 nicht erklären.
 
Ich gehe davon aus, dass das Spiel (analog zu anderen Spielen auf Basis alter Engines) sehr stark von den Caches der Ryzen 3000 profitiert.

Da großartig zu optimieren würde für das Studio und die CPU-Hersteller nur bedingt Sinn machen, denn für das Spiel braucht es nicht mehr als 4C/4T maximal 4C/8T.

Von hohen fps profitiert man in dem Genre ja überhaupt nicht.

Wie @Wolfgang schon sagte, „Vier Kerne ohne SMT sind völlig ausreichend.“
 
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
@SV3N
Deine Theorie hat aber einen Haken und zwar die ungewöhnliche Stärke des 2600X VS 9900k.
Der hat noch nicht soo viel Cache wie n Zen 2.
 
  • Gefällt mir
Reaktionen: Mcr-King
SV3N schrieb:
Ich gehe davon aus, dass das Spiel (analog zu anderen Spielen auf Basis alter Engines) sehr stark von den Caches der Ryzen 3000 profitiert.

Da großartig zu optimieren würde für das Studio und die CPU-Hersteller nur bedingt Sinn machen, denn für das Spiel braucht es nicht mehr als 4C/4T maximal 4C/8T.

Von hohen fps profitiert man in dem Genre ja überhaupt nicht.

Wie @Wolfgang schon sagte, „Vier Kerne ohne SMT sind völlig ausreichend.“

Da würde sich grade ein APU test gut machen denke ich lieber Sven 😉
Ergänzung ()

modena.ch schrieb:
@SV3N
Deine Theorie hat aber einen Haken und zwar die ungewöhnliche Stärke des 2600X VS 9900k.
Der hat noch nicht soo viel Cache wie n Zen 2.
Ramm Takt vielleicht weil normal wird ja immer der Standardt RAM Takt genommen. 🤔
 
Zuletzt bearbeitet:
Zurück
Oben