Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

incurable schrieb:
Es muss keine Intel-CPU sein, es sollte aber die schnellste Gaming-CPU sein. (die aktuell halt von Intel kommt.)

Falsch. Es muss eine CPU sein die die GPU nicht limitiert. Genau das ist hier gegeben.
 
  • Gefällt mir
Reaktionen: SteeL1942, keyring80, fox40phil und 22 andere
Control ist so ein Titel. Dort ist die GeForce RTX 2080 Ti in 3.840 × 2.160 79 Prozent schneller als die GeForce RTX 2080 Super, ohne Raytracing kann sich das Turing-Flaggschiff nur um 22 Prozent absetzen. Außerdem ist die GeForce RTX 2070 Super absolut gleich schnell wie das größere Modell – da in beiden Fällen der Speicher zu klein ist. Auch Deliver Us The Moon profitiert von mehr als 8 GB, was sich aber nur bei den Perzentil-FPS bemerkbar macht.
Ich behaupte mal, dass der erste Fall, also ein Einbruch von fps und Frametimes, ein Zeichen für mangelnde Bandbreite ist. Da werden die Daten zu jeder Zeit zu langsam geladen.
Der zweite Fall ist dann ein mangelnder VRAM, wo es seltener zu dafür heftigen Einbrüchen kommt.
@gidra Jetzt ein Test, den du akzeptierst?
 
Ein starkes Argument für den Kauf einer RTX 3000er Karte ist für mich DLSS 2.0. Mal gespannt ob AMD vielleicht hier was ähnliches auf die Beine stellt.
 
  • Gefällt mir
Reaktionen: fox40phil, SVΞN, Wintermute und eine weitere Person
@ Computerbase

Das mit den neuen Spielen finde ich gut. Was ich jedoch schade finde, dass ihr bisher nie Deus Ex: Mankind Divided mit in euren Benchmarks hattet. Selbst heute ist das Spiel immer noch sehr Leistungsfordernd und sieht in Teilen immer noch fantastisch aus. Selbst CP2077 sieht in den neusten Gameplay-Trailern in Innenarealen nicht mal ansatzweise so realistisch und stimmig aus.

Selbiges gilt für Kingdom Come: Deliverance, das auch immer noch extrem hardwarehungrig ist und sich in Benchmarks lohnen würde.

Ich würde es begrüßen, wenn in Zukunft mal weniger Shooter in den Benchmarks, dafür aber mehr Rollenspiele in den Vordergrund gestellt werden würden.

Bei den Auflösungen finde ich es schade, dass die mittlerweile recht beliebte Auflösung von 3.440 x 1.440 nicht verwendet wird, stattdessen die abgespeckte Variante von 2.560 × 1.440. Wer nutzt diesen Zwischenschritt bitte heute noch? Wenn ihr Full HD und WQHD drin habt, müsstet ihr die beiden größeren Brüder, also UWQHD und UHD beide drin haben. Alles andere ergibt keinen Sinn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnTwoHawks und Mil_vanderMaas
incurable schrieb:
Auf welcher Basis?

Auf welcher Basis? Kurz gesagt, da ich es als Redakteur für richtig halte. Sonst würden viele mosern, dass wir die Grafikkarten unter ihren Möglichkeiten testen. Irgendwelche Nachteile muss man also in Kauf nehmen, wir haben uns für PCIe 4.0 entschieden.

Linmoum schrieb:
https://www.computerbase.de/2020-08...-test/2/#diagramm-horizon-zero-dawn-3840-2160

Das 0,2% Percentil bei der 5700XT in Horizon kann irgendwie nicht hinhauen.
Der 5700 XT geht der Speicher aus :)
Naesh schrieb:
Also auf den letzten LANs waren locker 20% aller Monitore ein 3440x1440p Panel. Auch im Freundeskreis besitzen sogut wie alle Leute 21:9 ... oftmals 3440x1440p
Äh, nein. Nicht mal im Ansatz. Vermutlich nichtmals wenn du die 0 wegnimmst.

ZeroStrat schrieb:
Ich frage mich dennoch, was soll das nun tatsächlich bringen in der Praxis? Gibt es irgendwelche konkreten Benchmarks oder Anhaltspunkte, die den Vorteil von PCIe Gen 4 in irgendeiner Form nahelegen? Ich würde wetten, dass kein Titel in der neuen Benchmark Collection (Ausländer wundern sich übrigens sehr über den Begriff Parcours in diesem Zusammenhang ^^) davon profitiert. Selbst ein Horizon Zero Dawn, was stark von Gen 2 nach Gen 3 profitiert, zeigt sich beim Sprung nach Gen 4 ziemlich unbeeindruckt.
Was es in der Praxis bringt ist natürlich ohne direkten Vergleich schwer zu sagen - vor allem bei Produkten, die noch nicht releast sind. Also muss man sich bevor es die Produkte gibt entscheiden, was man für ein Testsystem für wichtig erachtet. Und hier war die Entscheidung schlussendlich deswegen einfach, da man mit dem 3900XT ein CPU-Limit in für High-End-Karten wichtigen Einstellungen (also Ultra HD) vollständig ausschließen kann. Und auch in WQHD wird es ein CPU-Limit kaum bis gar nicht geben, während Full HD für die karten kaum eine Rolle spielt.

Mit PCIe 4.0 habe ich dagegen etwas, was alle neuen Karten nutzen werden. Ist der Nutzen davon hoch? Sicherlich nicht. Ist ein Nutzen überhaupt da? Vielleicht ja, vielleicht nein. Ich halte PCIe 4.0 für das, was ich mit dem Parcours zeigen will, aber für eher relevanter als einen 10900K, der in Full HD was schneller als der 3900XT ist.
 
  • Gefällt mir
Reaktionen: Schattenspender, nighteeeeey, meXP und 74 andere
incurable schrieb:
Es muss keine Intel-CPU sein, es sollte aber die schnellste Gaming-CPU sein. (die aktuell halt von Intel kommt.)
Das wäre nur dann nötig, wenn ich entweder das absolute MAximum an möglichen FPS aufzeigen will oder aber die CpU so dermaßen lahm ist, dass sie wirklich permanent ins CPU Limit rennt. Denn dann hätte ich dauernd gleichlange Balken..
 
  • Gefällt mir
Reaktionen: CableGuy82, Wintermute, Smartbomb und eine weitere Person
Smartin schrieb:
er Unterschied zwischen PCIE 3 und PCIE 4 dürfte deutlich geringer ins Gewicht fallen, als der zwischen einem 3900XT und einer 10900K.
Ich nehme mal an dass es da auch um die "PCIE 4 Features" der neuen GPU Gen geht.
 
  • Gefällt mir
Reaktionen: CableGuy82 und simosh
H3llF15H schrieb:
Jedes Mal aufs neue hoffe ich Benchmarks in 3440x1440 zu finden.
Da musst du mal bei PCGH suchen. Die machen öfter mal welche in der Auflösung. Computerbase scheint das wohl nicht hinzubekommen (oder nicht zu interessieren)...
 
  • Gefällt mir
Reaktionen: Averomoe, incurable, Darken00 und eine weitere Person
Endlich gibt's Benchmarks in 4K mit MaxDetails.
 
  • Gefällt mir
Reaktionen: Affe007 und Flowerpower77
Darken00 schrieb:
@ Computerbase

Das mit den neuen Spielen finde ich gut. Was ich jedoch schade finde, dass ihr bisher nie Deus Ex: Mankind Divided mit in euren Benchmarks hattet. Selbst heute ist das Spiel immer noch sehr Leistungsfordernd und sieht in Teilen immer noch fantastisch aus.
Selbiges gilt für Kingdom Come: Deliverance, das auch immer noch extrem hardwarehungrig ist und sich in Benchmarks lohnen würde.
Ich würde es begrüßen, wenn in Zukunft mal weniger Shooter in den Benchmarks, dafür aber mehr Rollenspiele in den Vordergrund gestellt werden würden.
Deus Ex und Kingdom Come waren mal im GPU-Testparcours, sind aber aufgrund des Alters einfach mittlerweile rausgeflogen. Das ist einfach der Lauf der Zeit. Und die Auswahl der Spiele setzt sich halt primär aus den Anforderungen zusammen. Aber bald kommt ja ein Rollenspiel raus, was mit 100 Prozent Garantie auch im Testparcour landen wird :)
 
  • Gefällt mir
Reaktionen: nighteeeeey, SteeL1942, fox40phil und 16 andere
Flowerpower77 schrieb:
im Netz schwirren die fantastischsten Zahlen rum. DLSS scheint ne Wunderwaffe zu sein.
Ich sag dir was, das Benchmark-Ergebnis der neuen Karten ist sogar in Pi enthalten. Das Universum hält eben schon alles für uns bereit :D
 
  • Gefällt mir
Reaktionen: Acedia23, Brian.Griffin, Sophisto und 5 andere
WOW
Weil ein 10900K nicht im Test ist, ist dieser Parcour direkt für die Tonne?
Krass!
Dann sind ja 98% aller Rechner hier auf CB auch für die Tonne.
Weil sie weder einen 10900K noch eine 2080Ti haben. Geschweige denn eine 3080

Schmeisst eure Rechner Weg!
Alles unter 10900K ist für die Tonne!
(und das mit PCIe 3.0)

CB Hätte auch einen TR 3990X nutzen können mit 64C/128T +1TB RAM im ECC
oder den 3950X
Ob da dann welche Gemeckert hätten??
Nie macht man es Richtig

Vote for TR-3990X
 
  • Gefällt mir
Reaktionen: nighteeeeey, SteeL1942, iceshield und 13 andere
Ich würde noch AC Odyssey mit in den Testparkour nehmen um zu prüfen wie gut sich die neuen GPUs mit schlechten und fps fressenden Ports, schlagen.
 
  • Gefällt mir
Reaktionen: SteeL1942
@Wolfgang rein hypothetisch.. könnte der Entscheid auch mit Ryzen 2 zu tun haben? Wäre ja noch der selbe Sockel.
Fragen über Fragen.
 
Wolfgang schrieb:
Die Radeon RX Vega 64 und die Radeon VII fehlen in dem Diagramm (Leistungsaufnahme der Grafikkarte – YouTube-Video) , was schlicht daran liegt, dass diese den von YouTube genutzten VP9-Codec nicht in Ultra HD mit HDR beschleunigen können.
Durch das Weglassen werden diese beiden Grafikkarten unangemessen bevorteilt, denn ihr Versagen wird in dem Diagramm nicht dargestellt.
Dies wiegt um so schlimmer, weil sie im vorhergehenden Diagramm (Leistungsaufnahme der Grafikkarte – Windows-Desktop -- Dual-Monitor, 2 × 3.840 × 2.160, 60 Hz) als überagende Sieger vorgezeigt werden.

Wolfgang schrieb:
Das übernimmt in dem Fall der Prozessor, doch selbst der Ryzen 9 3900XT genügt für die flüssige Wiedergabe nicht.
Dieses Versagen müßte nach meiner Auffassung als letzte Plätze im Diagramm dokumentiert werden.
Wenn man einen Verbrauchswert zuordnen will, kann man das Power-Limit des 3900XT von 142W verwenden.
Das würde die Werte dieser Grafikkarten im nachfolgenden "Performance pro Watt" - Diagramm noch weiter verschlechtern, wäre aber aber der gezeigten "Performance" angemessen.
 
  • Gefällt mir
Reaktionen: Alex1966, voalirus und incurable
ich bin gespannt wie die neue RTX Generation mit Ryzen 4000 performen wird. Herrlich PC Gamer zu sein:)

Der PC wird die neue Konsolen Generation sowas von in den Boden stampfen.
 
Die Lautstärke bei Desktopbetrieb verstehe ich nicht.
Meine RX5700 macht genau null Geräusche weil die Lüfter stillstehen.
Ist das bei den Referenzkühlern anders?
 
Zurück
Oben