Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

ZeroStrat schrieb:
Geht ein bisschen hin und her heute. ^^ Der RAM des CBs Ryzen System ist doch auch optimiert.

Der ist low optimiert. Versehe nicht wieso die AMD Community das plötzlich anders sieht.
Da gehen noch 10%. Sicher muss das auch stabil laufen, aber unter den Umständen zieht ein ordentlich optimierter 10900K das Testsystem hier in Anno sicher um >30% ab.

Gut vielleicht sind 10% auch zu hoch gegriffen, allerdings schätze ich das PCGH System 10% schneller ein.
 
KlaraElfer schrieb:
Der ist low optimiert. Versehe nicht wieso die AMD Community das plötzlich anders sieht.
Da gehen noch 10%. Sicher muss das auch stabil laufen, aber unter den Umständen zieht ein ordentlich optimierter 10900K das Testsystem hier in Anno sicher um >30% ab.

Ja gut, dann gehen da noch 10% mehr und mit einem Intel-System nochmal 10-20% oben drauf. Das hilft einem aber dann auch nicht mehr, wenn die Grafikkarte teils 70% schneller ist. :D
 
  • Gefällt mir
Reaktionen: CableGuy82
Glyphus schrieb:
Also den 3900X mit 3.0, den 3900X mit 4.0 und den 10900K mit 3.0. Wir wollen ja immerhin den Unterschied zwischen den Prozessoren und den vom Interface trennen.

Die CPU ist irrelevant, wenn das Spiel im GPU-Limit hängt. Wenn PCIE 3.0 und 4.0 einen Unterschied darstellen, wird es sich beim Test zeigen - egal ob man einen 10900k ggü. einem 3900X stellt.

Allerdings muss ich hier CB auch loben, dass man endlich auf 32 GB-Ram umgestiegen ist. In manchen Games stellen schon 16 GB einen Limit dar.

Zusatz:

Wenn man schon die Wahl der CPU für den Testparkour mit PCIE begründet, muss man als Tester auch erstmals testen, ob es überhaupt einen Unterschied macht - ansonsten wäre die Wahl der CPU vollkommen falsch und das Testergebnis für den Allerwertesten.
 
  • Gefällt mir
Reaktionen: incurable
ZeroStrat schrieb:
Ja gut, dann gehen da noch 10% mehr und mit einem Intel-System nochmal 10-20% oben drauf. Das hilft einem aber dann auch nicht mehr, wenn die Grafikkarte teils 70% schneller ist. :D

Vielleicht mal den 8auer einladen und mit Heliumkühlung testen.^^
Bin dann gespannt wie man das System später umstellt. Ob ein Rocket Lake kommt, oder Zen 3.

Heschel schrieb:
Wenn man schon die Wahl der CPU für den Testparkour mit PCIE begründet, muss man als Tester auch erstmals testen, ob es überhaupt einen Unterschied macht...

Da man ja im Bios auf PCIE 4.0 x8 umstellen kann, dürfte das sicherlich getestet werden.
Ich erwarte außerhalb von harten V-ram Limits 1% im Schnitt.
 
@Wolfgang
Wenn du die Zusatzinformation der minimalsten Auslastung der GPU pro Test mit benchst und offenlegst, wenn diese unter 95% fällt, dürfte sich eigentlich gar keiner mehr beschweren...
Dann sehen sie meisten auch endlich mal, das ein CPU Limit sehr selten ist, wenn wie hier, eine moderne cpu genutzt wird.
 
Ich bin jetzt nicht alle Kommentare durchgegangen, weil keine Zeit. Vielleicht wurde dieser Vorschlag schon gemacht:

Es gibt genügend high-fps gamer, die ihren 144/240/360 kommend-Monitor mit so vielen fps wie nur möglich füttern wollen und dabei gerne auf maximale Qualität verzichten.
Somit würde ich vorschlagen, dass CB einen high-fps Benchmark-Parkour separat zu den Haupt-Parkour einführt oder am Besten noch integriert, damit man den kompletten Gesamteindruck einer GPU bekommt.
Könnte unter Umständen komplett untergehen, dass eine GPU unter 1080p oder 1440p (min. oder mittlere Details, wie weit man es eben treiben möchte) besser abschneidet gegen die Konkurrenz weil sich genau in diesen Einstellungs-Regionen das Performance-Gefüge wendet, zugunsten einer GPU, die bei den von CB vorgeschlagenen Settings vielleicht das Nachsehen hat.
Wenn CB jetzt schon die Vermutung aufstellt, das die RDNA-Architektur mit niedrigeren Auflösungen besser klarkommt als die Turing-Generation, wäre es überaus interessant, zu wissen, wie es sich mit Ampere und RDNA2 verhält. Wäre nämlich schade, wenn man das aussen vor lassen würde. So könnte man einen Preis-Leistungs-Knaller für high-fps-gaming ermitteln, sollte eine GPU speziell unter milderen Settings die Performance besser aud die Strasse bringen.
Was ich damit meine: mal hypothetisch angenommen, die 3070 schneidet im CB-Parkour besser als die RDNA2-NAVI-22 ab. Wie würden sich die Karten verhalten, wenn man sie durch einen high-fps optimierten Testparkour durchjagen würde? Gäbe es da Performance-Verschiebungen aufgrund der unterschiedlichen Architektur, der Speicherbandbreite und der Komprimierungsmethoden?

Ist CB aber aufgrund der Erfahrungen aus der Vergangenheit der Ansicht, der Aufwand stehe in keinem Verhältnis zu dem Maße, wie stark sich das Kräfteverhältnis der GPUs ändern könnte, so könnte ich verstehen, das man darauf gerne verzichtet.

Und mal abgesehen von reinen Performance-Tests: Es wäre mal wieder ein Bildqualitätsvergleich der kommenden GPUs angebracht, damit man Aufschluss darüber hat, ob die Qualität sehr vergleichbar ist oder es Diskrepanzen gibt, die Fragen aufwerfen würden, welche Auswirkungen das auf die Performance einer GPU haben könnte und ob sich ein Hersteller dadurch einen Leistungsvorteil erschleicht.
Hat ja früher ein paar Skandale darüber gegeben (Schummelei beim anisotropischen Filtering, schön zu sehen bei einem Half-Life 2 Testbild, wenn ich das richtig in Erinnerung habe).
Seit Jahren, wenn nicht Jahrzehnten wird das nicht mehr untersucht! Wäre doch mal einen Test wert.
 
  • Gefällt mir
Reaktionen: Achim_Anders
Naja ich muss zustimmen. Intels schnellere Speerspitze in Gaming gehört als Vergleich dazu. Man testet die schnellsten Grafikkarten auf den Markt mit der nicht schnellsten CPU in Gaming.

Das ist hier doch ein Gaming Vergleich?

Also sollte man die schnellstmögliche Grafikkarte beispielsweise 2080 TI oder auch 3090 Ampere mit dem Leistungsfähigsten Prozessor in Spielen 10900k etc. von Intel verwenden.


Immerhin wollen gewisse Ampere Nutzer auch auf Auflösungen wie 1440p bleiben um 144 Frames zu erreichen und hier ist es einfach besser eine Intel CPU zu haben.

Wo es eher zur CPU limitierungen kommt statt PCI Express Bandbreite oder Grafikkarten Limit.
Und in dem Szenario wird man sehr wohl einen Unterschied zwischen Ryzen 3900x und i9 sehen.


Gut wenn die CB Hardwaremühle dann schnellstens auf Ryzen 5900x geupgradet wird erübrigt sich der Vorsprung eventuell, bis dahin lieber beide Prozessoren testen ;)
 
  • Gefällt mir
Reaktionen: incurable und SPECIALIZED-
Heschel schrieb:
Die CPU ist irrelevant, wenn das Spiel im GPU-Limit hängt. Wenn PCIE 3.0 und 4.0 einen Unterschied darstellen, wird es sich beim Test zeigen - egal ob man einen 10900k ggü. einem 3900X stellt.

Dein Vorschlag war doch 3900X und 10900K zusammen zu verwenden um den Unterschied zwischen 3.0 und 4.0 zu testen, oder habe ich das falsch verstanden?

5hred schrieb:
Es gibt genügend high-fps gamer, die ihren 144/240/360 kommend-Monitor mit so vielen fps wie nur möglich füttern wollen und dabei gerne auf maximale Qualität verzichten.

Was spricht denn dagegen sich diese Informationen wie bisher separat zusammen zu suchen aus den CPU-Tests?

Ich schaue mir einen CPU Test an in 720p und der sagt mir. In dem Spiel liefert die CPU 400 Fps. Dann schaue ich mir den Grafikkartentest an und sehe - oha die GPU liefert 320 Fps. Also wird die CPU nicht limitieren.

Nicht jeder hat immer absolutes High-end. Ich habe einen 3700x und werde in meinem eigenen System benchen wieviel FPS die CPU im CPU-Limit stemmen kann und dann entscheide ich ob für meine Spiele eine 3070/3080 oder eben das AMD Äquivalent dazu packe. Und sollte meine CPU ohnehin immer über 144 FPS kommen dann ist mir der Rest ohnehin fast egal, da ich 144Hz WQHD unterwegs bin und ich meinen Monitor nicht alle 2 Jahre wechsle.
 
Zuletzt bearbeitet:
therealcola schrieb:
Naja ich muss zustimmen. Intels schnellere Speerspitze in Gaming gehört als Vergleich dazu. Man testet die schnellsten Grafikkarten auf den Markt mit der nicht schnellsten CPU in Gaming.

Das ist hier doch ein Gaming Vergleich?

Also sollte man die schnellstmögliche Grafikkarte beispielsweise 2080 TI oder auch 3090 Ampere mit dem Leistungsfähigsten Prozessor in Spielen 10900k etc. von Intel verwenden.


Immerhin wollen gewisse Ampere Nutzer auch auf Auflösungen wie 1440p bleiben um 144 Frames zu erreichen und hier ist es einfach besser eine Intel CPU zu haben.

Wo es eher zur CPU limitierungen kommt statt PCI Express Bandbreite oder Grafikkarten Limit
Ist es bewiesen das der 10900K in PCIe3 mehr fps liefert als der AMD in PCIe4?
 
Kloin schrieb:
Stimmt, würde ich bei CS:GO und Shadow of the Tomb Raider auch nicht wollen, dass mir die Intel CPU FPS verwehrt ;-)
Um wieviel schneller ist denn dein R9 3900X?
Mein letzter Stand war, daß mein alter i9 7920X Kreise um den R9 3900X dreht.
Und ein 10900K ist wiederum schneller :confused_alt:.
 
mylight schrieb:
Ist es bewiesen das der 10900K in PCIe3 mehr fps liefert als der AMD in PCIe4?

 
Toll erklärt, gutes neues Testsystem finde ich und auch die Spieleauswahl ist gut, bis auf einen Titel.

Was soll denn Trackmania hier? Das spielt doch niemand, ich hab davor noch nie davon gehört und außer, dass es nur auf Nvidia optimiert ist, gibt es nichts besonderes an dem Spiel. Wer kam denn auf die dämliche Idee, den Titel in den Test aufzunehmen?
 
therealcola schrieb:
Dieses Video stammt vom 23.05.2020, PCIe4 Grakas mit RTX IO gab es da noch nicht, also ist das Video nutzlos.
 
  • Gefällt mir
Reaktionen: Kenjiii und Kloin
Mustis schrieb:
Passt halt nur nicht deine Darstellung. Denn auf dem AMD sind halt nicht alle Balken gleich lang. Genau das ist, was dir einfach nicht in den Schädel will....
Ich bin mir nicht sicher, wie Du die Sache falsch verstehst, vermute aber nach dieser Aussage, dass Du nicht beachtest, dass das CPU-Limit bei jedem einzelnen Frame eines Benchmark-Runs entweder gegeben oder nicht gegeben sein kann.
 
incurable schrieb:
Hier geht es nicht um Kaufempfehlungen für ein System, sondern um den GPU-Testparcours, und da ist es nun mal Sinn der Sache, alle Flaschenhälse außerhalb der GPUs selbst so gut es geht zu eliminieren.

Hier freiwillig eine laut Computerbase-eigenen Messungen ~10% langsamere CPU zu verwenden ist logisch nicht nachvollziehbar und führt zu Arbeit für die Mülltonne.
Ergänzung ()

Auf welcher Basis?

Das wird gemacht damit der Chip in kurzer Zeit vom 4950X abgelöst werden kann. Ich denke mal cb geht auch davon aus das Intel in Spielen geschlagen wird und in Anwendungen haben sie eh keine chance mehr.
 
DriveByFM schrieb:
Würde der 10900K nicht mehr Sinn machen? Immerhin die schnellste Gaming CPU, oder nicht?
Würde es. Ob PCIe 4.0 tatsächlich einen Einfluss auf Ampere oder RX 6000 hat, muss sich erst
noch zeigen. Dass man aber zu diesem Zeitpunkt umgestellt hat, eine Woche vor Release der
Ampere Karten, lässt mglw. tief blicken. Ich würde vermuten, dass die Redaktion weiß, dass es
einen Unterschied macht, und dass sie sich durch das Ampere Review nachträglich "legitimieren".
Legitimieren meine ich nicht negativ, das steht ihnen ja frei, ihre Hardware selbst zu wählen.
Bin mal gespannt, wie andere Reviewer das handhaben werden (anandtech, guru3d, LTT...)

Wär gut, um mehr Druck auf Intel zu machen, PCIe 4.0 schneller in den Desktop zu bringen, wenn
nur dadurch Intel im Gaming weiterhin die Nummer 1 bleiben kann, was eh schon tricky ist aktuell.

OT: Interessanter finde ich aber fast, wie RTX IO auf PCIe 3.0 und 4.0 performt.
 
  • Gefällt mir
Reaktionen: Smartbomb und CableGuy82
Heschel schrieb:
Verwendet doch den 3900X und 10900k zusammen, dann hat man gleich einen Test von PCIE 3.0 vs. PCIE 4.0

Dann hat man keinen Test von PCIe3 zu PCIe4, da sich dann die Plattform ändert.

Einfach zwei mal mit dem 3900XT testen, mit beiden Standards.
 
Zurück
Oben