• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Troy: A Total War Saga im Test: Extremes Gras lässt selbst 16 Kerne schwitzen

Enurian schrieb:

Wirklich keinen, ausser diejenigen, die ihren Lieblings CPU Hersteller hinten sehen und sich deswegen gezwungen fühlen, auf die Barrikaden zu klettern.

Anschaulich: hätten die Devs das Grass Setting so geschrieben, das es nur bis auf 8 Kerne 16 Threads skaliert, gäbe es hier 0 Diskussion. Der Fehler der Devs war also ganz offensichtlich die Extreme Spielerei so zu parallelisieren, dass es bis auf 24 Threads hinauf skaliert.

Das entlarvt halt imho wieder die üblichen Verdächtigen die natürlich jetzt schreien und sonst still sind.

Das ist jetzt aber auch wirklich nicht der erste Fall in dem ein CPU heavy Setting auf Anschlag überproportional Leistung Frist ohne optisch viel zu bringen. Es ist nur außergewöhnlich gut über die Kerne skalierend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KarlsruheArgus und Achim_Anders
hab mir das gestern runtergeladen. Ist es normal das man in manchen orten nichts außer dem Hauptgebäude bauen kann. Sieht bei mir so aus

Clipboard01.jpg
 
Voellig an der Realitaet vorbei programmiert
 
Pisaro schrieb:
Wobei der Vergleich ja noch schlimmer als Äpfel und Birnen ist. Wenn ein Prozessor wegen zu wenig Kerne einbricht hat das null mit Programmierung zu tun. Der Prozessor hält halt einfach zu wenig Kerne.
Wenn eine GPU einbricht ist meist entweder das Spiel schlecht programmiert, der Treiber der GPU Müll oder die Architektur der GPU kommt mit der Engine nicht klar.
Das lustige ist das der Vergleich mehr als angemessen ist denn wie kann bei dem einen die Programmierung Müll sein und beim andern auf einmal nicht mehr?
Ebenso natürlich umgekehrt aber das ist eben der Unsinn solcher "Diskussionen" die immer einen gemeinsamen Nenner haben:
Ich habe viel Geld für ein Produkt des Marktführers bezahlt und wenn ich damit schlechter abschneide sind andere Schuld denn der Marktführer hat immer Recht.

Ich habe zumindest noch keinen jammern hören wenn der Intel Chip trotz weniger Gesammtleistung besser abschneidet weil das Spiel unfähig ist die Gesammtleistung des Produktes zu nutzen. Das gleiche Spiel dann natürlich bei den Grafikkarten wenn die Geforce Karten auf Abstand gehen weil das Spiel unfähig ist von sich aus die gesammtleistung des Prozessors zu nutzen oder man sich bei der Optimierung nicht um produkte anderer Hersteller geschert hat.

An der Stelle immer merken, die Hardware stellt nur Ressorcen zur Verfügung aber die Software muss sie auch nutzen und das möglichst effizient damit am Ende auch die volle nutzbare Leistung rauskommt und da schaut es seit einer Ewigkeit düster aus.
 
Wadenbeisser schrieb:
Das lustige ist das der Vergleich mehr als angemessen

Auf gar keinen Fall. Wenn Kerne fehlen ist das einfach hardwarebedingt. Eine schlechte Programmierung ist dann gegeben, wenn die Software auf auf ähnlicher Hardware (hier bezogen auf die GPU Leistung) unterschiedliche Ergebnisse bringt.

Intel verkackt hier einfach weil denen Kerne fehlen. AMD (und auch NVidia!!) verkacken dann wenn die Software schlecht programmiert ist oder deren Treiber Müll ist.
 
@Pisaro

Demzufolge sind praktisch 100% der Spiele der letzten 15 Jahre (Ende der Singlecore Zeit) schlecht programmiert weil sie unfähig waren alle Kerne/Threads der jeweils aktuellen Prozessoren sinnvoll zu nutzen?
In dem Fall wäre es dann fast schon egal wie die GPUs laufen denn schlecht programmiert ist eben schlecht programmiert.
 
@Wadenbeisser Ich glaube du verstehst (oder willst es absichtlich nicht verstehen?) nicht wirklich was ich meine. Wenn ein Prozessor mit mehreren Kernen Kernen schneller ist als einer mit weniger Kernen liegt das einfach an der Hardware. Das Spiel/Die Software gibt bessere FPS durch mehr Kerne her, ein Prozessor mit weniger Kernen kann das faktisch nicht. Weil es eben HARDWAREBEDINGT so ist.

Wenn ich allerdings meinen Treiber nicht vernünftig hinbekomme (oder die Software so schlecht programmiere das es auf GPU´s die eigentlich gleichwertig sind auf GPU Y besser läuft als auf X) hat das doch rein gar nichts mit der Hardware zu tun.

Wobei: Eigentlich sind viele Spiele zumindest nicht so programmiert, dass sie von mehreren Kernen einen Nutzen ziehen. Dann sind wirklich viele Spiele schlecht programmiert. Ändert dennoch nichts an der Tatsache das das eine ein Limit der Hardware ist und das andere ein Limit der Software.
 
gestern schrieb mir ein Freund, der bisher auch immer der Anti-Epic-Gruppierung angehörte:

Pater ich möchte beichten, meine letzte Beichte war vor 27 jahren. Ich hab der Verlockung des Epic games Store nicht mehr widerstehen können und mir ein Spiel kostenlos erschlichen. ich schäme mich zutiefst

/e: ups, sollte eigentlich in den thread wo es darum ging das es das Game kostenlos gibt... jetzt schämt sich nicht nur mein Freund, sondern auch ich :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Floppes, Bornemaschine und Pisaro
Bei diesen CPU-Tests fehlt mir immer öfter der 9700k im Vergleich, da diese CPU mit ihren 8 Kernen ohne SMT doch recht einzigartig ist. Zumal die CPU auch recht weit verbreitet ist.
 
  • Gefällt mir
Reaktionen: stevefrogs und Wadenbeisser
eRacoon schrieb:
Um den optischen Zugewinn von Ultra auf Extreme zu erzeugen dann ist das einfach murks in meinen Augen und gehört nicht in ein Optionsmenü

Doch warum nicht und für Unwissende gibt es Konsolen. 😉
 
@Pisaro

Ich verstehe es sehr wohl aber du offensichtlich nicht denn du versuchst auf Krampf etwas zu begründen und isoliert zu betrachten was hier und im allgemeinen in einen Topf geworfen wird und wo es nur eine sinngemäße Gemeinsamkeit gibt die ich bereits erwähnte.

Um dich nochmal auf den Boden der Tatsachen zurück zu holen, die Software kann nicht gleichzeitig schlecht programmiert sein (Gras CPU Last) und dann wieder nicht (GPUs) aber genau das ist der Tenor der hier mal wieder eingesungen wird weil einigen das Ergebnis nicht passt.

Auch hast du einen anderen Punkt bezüglich der GPU Performance beider Hersteller offensichtlich nicht verstanden.
Ist das Spiel nicht fähig die vorhandenen Kerne sinnvoll zu nutzen, was praktisch deit den ersten Dualcores der Fall ist, dann gewinnt am Ende der GPU Hersteller mit dem besten Workaround dafür und genau das ist aktuell nvidia beim Thema DX11 Performance.
Die Ursache dafür ist nicht die GPU und auch nicht deen Treiber sondern die Software (Spiel) das die CPU ineffektiv und damit ineffizient nutzt. Selbst wenn man versucht in der aktuellen Zeit die Verantwortung auf die API abzuschieben fällt sie doch wieder auf die Spiele Macher zurück denn sie haben sich schließlich für DX11 entschieden und gegen die effizienteren APIs entschieden.
 
  • Gefällt mir
Reaktionen: bad_sign
Wadenbeisser schrieb:
Um dich nochmal auf den Boden der Tatsachen zurück zu holen, die Software kann nicht gleichzeitig schlecht programmiert sein (Gras CPU Last)

Damit bestätigst du nur das du mich wirklich nicht verstanden hast. Hier liegt einfach ein Hardware-Limit durch zu wenig Kerne vor, nicht weil das Spiel schlecht programmiert ist.

Wadenbeisser schrieb:
Die Ursache dafür ist nicht die GPU und auch nicht deen Treiber

Gewagte These, wo ältere AMD GPUs aufgrund deren Treiber einen bösen Overheat unter DX11 erzeugt haben und deswegen langsamer waren.

Es bleibt dabei: Nicht genug Kerne: Hardware-Limit. Weniger FPS bei Hersteller X und Y unter eigentlich gleichen Vorraussetzungen: Softwarelimit (schlecht programmiert) Da hilft dann auch keine weitere Diskussion deinerseits.

Edit: Oh mein Gott zum Post unter mir. Dazu werde ich keinen weiteren Post schreiben, bestätigt mich nur das du immer noch nichts verstanden hast. Wahnsinn. Wie kann man den Unterschied zwischen Hardwarelimit und Softwarelimit so extrem ausblenden?
 
Zuletzt bearbeitet:
@Pisaro

Und erneut bekräftigst du mich in dem Eindruck das du das Posting nicht verstanden hast oder verstehen willst....
Ein Spiel kann nicht gleichzeitig auf der einen Seite schlecht programmiert sein und auf der anderen Seite soll auf einmal die Hardware Schuld sein. Entweder oder.

Zudem ist der zweite zitierte Part keine gewagte These sondern stumpfe Realität denn das gebetsmühlenartig wiederholte Overhead Märchen hängt sich an einem Punkt auf.
Ein höherer Overhead liegt vor wenn man für den gleichen Einsatz weniger raus bekommt und jetzt rate mal was darin fehlt. Wie nvidia mehr brach liegende CPU Leistung nutzbar macht wurde ja vor eine halben Ewigkeit mal erklärt und genau das ist der Punkt. Sie sind in DX11 schneller weil sie per Workaround mehr brach liegende CPU Leistung nutzbar machen und haben deshalb mehr Framerate durch die höheren CPU Last. Der durch den zusätzlichen Verwaltungsaufwand erzeugte Overhead interessiert nur niemanden, beißt ihnen aber bei den low(er) Level APIs in den Hintern wärend die Radeons davon teils erheblich profitieren.
Jetzt rate mal warum DX12 und Co. nvidia erst seit RTX interessiert.

Ach und noch ein Punkt den du offensichtlich "übersehen" hast, warum werden wohl die Intel Chips trotz weniger Kerne als ach so performante Gaming CPUs an gesehen wenn die Spiele in der lage wären alle zu nutzen?
Intel Rum lebt hier vom Taktvorteil weil die Spiele genau das nicht können.

Edit zum Edit über mir:
Schon erstaunlich wie beharrlich man ignorieren kann das es um widersprüchliche Aussagen von Usern ging, das nenne ich Ausdauer.
 
Zuletzt bearbeitet von einem Moderator:
Klikidiklik schrieb:
Schade das kein 2700X dabei ist. Hätte mich schon interessiert wie der hier auch gegen den 3600X abschneidet.


Ich behaupte mal, dass selbst ein R7 1700 mit ein wenig OC schneller ist als die Hexacores. Da geht es aber auch weniger um die IPC als um das Load Balancing und den Umgang des Schedulers. Wer sich ein wenig mit Betriebssystemen auskennt wird wissen, dass ein R7 eigentlich mehr Rechenleistung bietet, wenn die Software es fordert.
 
SethDiabolos schrieb:
Ich behaupte mal, dass selbst ein R7 1700 mit ein wenig OC schneller ist als die Hexacores.
Dafür muss man sich auch eigentlich nur anschauen, dass selbst der 1600X satte 12%/16% vor dem 3300X ist, der im CPU Ranking 32%/39% schneller als ein 1600X ist.
 
Ich hab da mal ne Frage:

Warum kostet das "Gras" eigetnlich so viel Performance (im Allgemeinen) und warum ist das je nach Game so unterschiedlich?
Bei GTA 5 brechen mir mit einem 3600X und einer 2070 die fps von 80 auf 40, sobald ich nur ins ultra Gras laufe (in einer situation wo sonst nix los ist in der Spielwelt)
Bei Witcher 3 allerdings passiert gar nix auf Ultra und ich halte in 1440p locker die 60 fps (und die vegation ist ja deutlich aufwendiger gestaltet).
 
Unterschiedliche Engines. So einfach.

CB kann man hier eigentlich noch von einer Disku. sprechen ?

Nur dummes einheizen. Angefangen schon mit Euch und der Überschrift. Aber Klicks zum Wochenende müssen ja sein :D
 
  • Gefällt mir
Reaktionen: Bornemaschine
Wird Zeit für ne neue Engine würde ich mal behaupten.
 
  • Gefällt mir
Reaktionen: stevefrogs, Krautmaster und bad_sign
Balikon schrieb:
Geht aber nicht um die Grafik, sondern das es erste Anzeichen gibt, dass Spiele in Zukunft auch mit mehr als 8 Kernen skalieren werden.
Das ist kein Anzeichen, dass ist misslungene Programmierung. Wirklich jedes Spiel könnte 16 und mehr Kerne auslasten, wenn man Millionen Objekte ineffizient ununterbrochen berechnen lässt. Schreibe eine Schleife mit 2000 Objekten die alle auf separaten Threads gestartet werden, dann hast du deine 2000 Threads die wiederum auf die Kerne verteilt werden. Skalierung erreicht, aber was kommt hinten raus? Gras? 16 Kerne auszulasten bedeutet, ich erwarte im Gegenzug das dies auch gerechtfertigt ist und ich sagen kann, cool.., denn immerhin steigt mit der Auslastung auch die Leistungsaufnahme. Das ist vergleichbar mit Raytracing wenn man es auf der CPU ausführt, extreme Auslastung und miese Performance, also ineffizient, aber gepaart mit einer RTX Karte spürbar besser. Sie zeigen eigentlich nur das die Programmierkenntnisse nicht an das branchenübliche Niveau heranreichen. Da kann man keine positiven Worte für finden. Das 9/10tel an Rechnern für das Game quasi ausscheiden spiegelt sich dann im Umsatz wieder. Sowas darf auch keine Referenz werden, sonst benötigt man bald schon 4 Kerne nur zum Minesweeper zocken, weil im Umgang mit Leistung nur noch geschlampt wird.
Ergänzung ()

Pisaro schrieb:
Auf gar keinen Fall. Wenn Kerne fehlen ist das einfach hardwarebedingt. Eine schlechte Programmierung ist dann gegeben, wenn die Software auf auf ähnlicher Hardware (hier bezogen auf die GPU Leistung) unterschiedliche Ergebnisse bringt.

Intel verkackt hier einfach weil denen Kerne fehlen. AMD (und auch NVidia!!) verkacken dann wenn die Software schlecht programmiert ist oder deren Treiber Müll ist.
Das ist falsch. Es obliegt den Programmierern effiziente Algorithmen im Rahmen der Optimierung zu finden. Bei der Bildbearbeitung gibt es gute Algorithmen um die Pixel ganzer Bilder schnell zu verarbeiten, was dann bei 720p gut funktioniert, kann in 1080p schon zum Flaschenhals werden. Die Lösung kann nicht sein nur mit dem Finger auf die Hardware zu zeigen. Schlechte Programmierer werden auch immer die beste Hardware ins Schwitzen bringen, obwohl nicht mehr rauskommt als etwas das schon vor 10 Jahren Standard war.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Adzz und MaexxDesign
Zurück
Oben