• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Dirt Rally Benchmarks: AMD liegt vorne, bleibt aber nicht unfallfrei

Necareor schrieb:
Das ist so nur bedingt richtig. Der Unterschied zwischen 30FPS und 60FPS ist immens, das stimmt, und deutlich spürbar. Aber alles darüber ist bei weitem nicht mehr so spürbar. Daher ist der Vergleich mit Youtube 30/60 nicht wirklich korrekt.

Wenn du die Möglichkeit haben solltest, dann schnapp dir mal eine Kamera, die Videos in 100 FPS oder höher aufnehmen kann. Und dann wandel dieses Video mal um in Videos mit 30FPS, 60FPS und 90 FPS (oder so ähnlich). Du wirst sehen, dass zwischen 60FPS und 90FPS wirklich kaum noch ein sichtbarer Unterschied besteht.

ich spiele derzeit mit einem 144hz monitor. wenn ich mit dsr auf 1440p gehe und bei 90fps spiele gehe ich freiwillig wieder auf 1080p zurück mit 144fps. sag mir nicht das spürt man nicht, das ist nonsens.

man würde den sprung von 144fps/hz auf 288hz/fps ebenfalls merken.
 
Les bitte nochmal genau, wovon ich rede! Du vergleichst Äpfel mit Birnen. Videos mit verschiedenen FPS haben nur bedingt etwas mit Gaming und seinen FPS zu tun. Beim Gaming kommt nämlich das Problem der Asynchronität zwischen Monitor und Bildausgabe dazu, und das dadurch bedingte "Ruckeln" wird durch mehr FPS verringert, neutralisiert.
Filme im Kino haben dieses Problem nicht, daher sind da 60FPS/Hz super flüssig. Diese Asynchronität hast du auch bei GSync/FreeSync nicht mehr, daher kannst du erst damit wirklich beurteilen, wie flüssig 60FPS beim Gaming eigentlich sind!
 
Zuletzt bearbeitet:
Man kann über Gameworks sagen, was man will, zumindest waren in den letzten entsprechenden Spielen (fast) alle Effekte auf irgendeine Art und Weise deaktivierbar. Das scheint hier nicht der Fall zu sein, da zum einen die Optionen dahingehend nicht transparent sind und zum anderen der AMD-entwickelte Renderer fest vorgegeben ist.

Ob und inwieweit AMD hier NV ausbremst (wie es bei anderen Ego-Engine-Vertretern der Fall war), ist so leider nicht ersichtlich.
 
"Selbst der FX-8370 muss sich der langsamsten Intel-Konfiguration klar geschlagen geben und schafft es auf der Radeon R9 Fury X noch nicht einmal zu 60 FPS."

Bemerkenswert..
 
Zuletzt bearbeitet:
SirBerserk schrieb:
fallout 4 24% langsamer als eine 780... stellt ihr auch nicht solangsam fest das die 280x nachlässt gegenüber der 780?
https://www.computerbase.de/artikel...2363/seite-2#abschnitt_grafikkartenbenchmarks

Stand die 280 bzw 7970 jemals als direkter Konkurent der 780 im Rennen, ich glaube man muss ehr die 290 mit der 780 vergleichen und da hat die 290 definitiv aufgeholt.
Ergänzung ()

captain_drink schrieb:
Man kann über Gameworks sagen, was man will, zumindest waren in den letzten entsprechenden Spielen (fast) alle Effekte auf irgendeine Art und Weise deaktivierbar. Das scheint hier nicht der Fall zu sein, da zum einen die Optionen dahingehend nicht transparent sind und zum anderen der AMD-entwickelte Renderer fest vorgegeben ist.

Naja, in F4 konnte man das auch nur bedingt ausschalten.
Ergänzung ()

R4Z3R schrieb:
"Selbst der FX-8370 muss sich der langsamsten Intel-Konfiguration klar geschlagen geben und schafft es auf der Radeon R9 Fury X noch nicht einmal zu 60 FPS."

Das ist, gelinde gesagt, jämmerlich.
Braucht man sich nicht wundern dass praktisch nur noch Intel CPUs relevant sind für Gaming-Neukäufe.

Ja, mich würde mal interessieren wie das mit schwächeren AMD CPUs aussieht, dürfte ja unspielbar sein. Ich denke aber hier ist irgendetwas buggy.
 
Necareor schrieb:
Filme im Kino haben dieses Problem nicht, daher sind da 60FPS/Hz super flüssig.

Bitte nicht das schon wieder: Nur weil man sich an die scheiße gewöhnt hat und es nicht anders kennt. Mir wird die ersten 30 Minuten im Kino vom ruckeln schlecht.
 
SirBerserk schrieb:
ich spiele derzeit mit einem 144hz monitor. wenn ich mit dsr auf 1440p gehe und bei 90fps spiele gehe ich freiwillig wieder auf 1080p zurück mit 144fps. sag mir nicht das spürt man nicht, das ist nonsens.

Was du bemerkst hat ziemlich wenig mit den zusätzlichen Frames zu tun. Du bemerkst die niedrigere Bewegungsunschärfe durch zu lange gehaltene Bilder. Würden ordentlich zwischen allen Bildern Schwarzbilder eingefügt werden, ergo Low Persistence Displays genutzt werden, würdest du da nix bemerken.

SirBerserk schrieb:
man würde den sprung von 144fps/hz auf 288hz/fps ebenfalls merken.

Garantiert nicht.
 
Du hast in deinem Post nichts von HFR geschrieben, das ist ja auch eher die Ausnahme.
 
Doch habe ich! Die ganze Zeit schon! Ich rede davon, dass ab 60 FPS ein Bild absolut flüssig aussieht, mehr FPS merkt man kaum noch. Und zwischen 30FPS und 60FPS merkt man einen deutlichen Unterschied. PAL Filme haben ja gerade mal 25FPS.
Bitte immer den gesamten Thread lesen, nicht nur den letzten Post, und dann darauf reagieren...
 
Schöner Test...

Aber beim Test des FX8370 muss doch irgendetwas schief laufen? Ja die CPU ist schon älter, und das Design war nie der bringer... aber warum nicht? Zu meist weil die Ressourcen nicht so genutzt werden wie sie vorhanden sind.

Wäre es nicht auch einmal möglich den Aufwand 2K/4K/HTTON/HTTOFF/Takt+/- mal am FX auszutesten? Immerhin teilen sich die Module bestimmte Teile der CPU und halbieren sie. Wenn man den FX aber bei diesem Spiel nur als 4K statt 8K laufen lässt, so aufgeteilt das ein Kern die Bauteile des gesamten Moduls nutzen kann... man kann doch übers Bios direkt ganze Kerne deaktivieren wenn ich mich nich Irre, da kann man dann auch Windows nichts unterstellen wenn man nur dort die zuteilung ändert.

Kartenlehrling schrieb:
Das liegt ja einfach daran weil Codemasters eine veralterte Gameengine einsetzt.
Ich weiss warum sie es gemacht haben, aber wenn ich es euch verrate muss ich euch alle töten.

https://www.computerbase.de/forum/attachments/grid-a-cpu-jpg.530194/

Anhang anzeigen 530194

Genau so sollte der CPU-Test aussehen und aufgeschlüsselt werden.
 
Zuletzt bearbeitet:
jk1895 schrieb:
Ich halte die Kantenglättung-Vergleichsvideos für unfassbar sinnlos. Warum macht ihr euch die Arbeit? Spart sie euch lieber. Man sieht auf den Video NIEMALS einen Unterschied. ....

Gebe Dir Recht ! Ich sehe leider auch kein Unterschied...
 
Oh je da wird meine 980 von ner 390x mal locker stehen gelassen:(
 
Zehkul schrieb:

Danke dafür das du meine Hintergedanken versinnbildlichst. Daher würde das doch dann bedeuten das wenn ich den Thread des Games eben nur auf einen bzw. zwei Kerne begrenze !!die nicht im selben Modul sitzen!!, ich durch aus mehr Leistung erhalten könnte, weil die belasteten Kerne ihre Modul-Einheiten nicht aufteilen müssen...?
 
Nein, so simple Sachen sollte der Scheduler deines Systems durchaus erledigen können. ;-)

AMD CPUs haben einfach keine so hohe Single Core Leistung und dafür mehr Kerne. Für gut geschriebene Programme ist das perfekt, für Spiele, die grausam schlecht geschrieben und deren APIs mindestens ein halbes Jahrzehnt überlagert sind, ist das weniger gut. Wird sich so langsam ändern, aber ein naiver Vulkan/DX12 Port, der das sein wird, was die meisten Spiele am Anfang haben werden, wird da auch noch nicht so viel ändern. Für echtes Multithreading müssen weite Teile der Engines umgeschrieben werden, und das ist ein größerer Aufwand.

(Die neuen APIs geben nicht magisch Multithreading, sie behindern die Spiele lediglich nicht daran, es selbst zu implementieren)
 
Die 380X ist eine einzige Enttäuschung.

Unglaublich wie die gegen die 280X abschmiert.
 
Zurück
Oben