Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Esenel schrieb:
@nospherato
Aber nicht auf Control bezogen.

Und wenn ich hier im Artikel schau, dann waren es in Doom UHD:


GeForce RTX 2080 Ti
, 1.665–1.680 MHz
Japp dachte du meinst den max Takt. Drunter war ja noch die Tabelle mit den anderen Games. Denke mal es wird sich in Control irgendwo um 1700Mhz bewegen.
 
Habs nun mal in Control 1440p getestet.
Einmal mit avg 1800 MHz und einmal avg 1900MHz.

Die AVG unterscheiden sich dann natürlich.
Aber die P0.2 bleiben annähernd gleich.

Und da sind wir halt auf nem Intel dann bei ~65FPS
Also grob 7-8 FPS Unterschied.

Ist jetzt kein Beinbruch, aber es macht auch in 1440p nen Unterschied.
 
  • Gefällt mir
Reaktionen: Colindo
@Wolfgang Wie haltet ihr es dann eigentlich mit Zen3? Wenn die 3070 und die neuen AMD Karten kommen, könnte ja ein potenzieller 4900X oder 5900X bereits draußen sein, der auf eurem Board auch läuft.

Habt ihr vor, da kurzfristig umzustellen, was natürlich auch bedeuten würde, den ganzen Parcour von 3080 und 3090 nochmal zu machen, oder bleibt ihr 2020 erstmal beim 3900XT?


Edit: Gerade in einem anderen deiner Posts gelesen, dass es 2020 beim 3900XT bleibt. Wenn ihr danach das System sowieso nochmal ändert, wäre ich tatsächlich für die beiden Releases beim 10900K geblieben.
 
  • Gefällt mir
Reaktionen: thuNDa, KlaraElfer, .Sentinel. und eine weitere Person
BOBderBAGGER schrieb:
Im oder nahe dem GPU Limit ? Wo sollen da die 50% herkommen ?
Der Punkt ist, dass man gerade mit einer 3080 oder 3090 dann große Teile der 1080p und evtl sogar schon ein paar Teile der 1440p Tests im CPU Limit verbringt und daher so ein 10900K, den man mit 4000MHz+ RAM betreibt, besser geeignet ist, um diese Fälle zu minimieren.
 
  • Gefällt mir
Reaktionen: KlaraElfer und jk1895
BOBderBAGGER schrieb:
Na das wird sich erst einmal zeigen müssen.
Man kann es ja jetzt schon sehen.
2080Ti vs 2080 Super

1080p: +15%
1440p: +19%
2160p: +22%

Die 2080Ti wird hier bereits durch die CPU ausgebremst, wie soll das dann mit einer 3080 aussehen, die nochmal 30-40% schneller sein soll?

Das Thema wurde ja auch schon anerkannt und mit der Bemerkung abgetan, dass 1080p bei einer 3080 ja sowieso nicht interessant wäre, weil das ja niemand nutzt.
Dabei muss man sich nur mal die Einzelergebnisse ansehen und da sind einige Spiele dabei, wo eine 2080Ti auch nur 80-100fps in 1080p erreicht, der 144Hz Spieler wird hier wohl eher nicht auf 4K setzen.

Beim beliebten Beispiel SotTR oder auch Ghost Recon Breakpoint kann sie sich vor allem in den Perzentilen fast überhaut nicht mehr von der 2080S absetzen, weil die CPU eben limitiert.
In 1440p sieht man dann bereits wieder 15-20% Unterschied bei den Perzentilen, hier könnte sich dann eine 3080 genausowenig von der 2080Ti absetzen, wie es die 2080Ti gegen die 2080S in 1080p konnte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Colindo, gunmarine und 3 andere
Taxxor schrieb:
@Wolfgang Wie haltet ihr es dann eigentlich mit Zen3? Wenn die 3070 und die neuen AMD Karten kommen, könnte ja ein potenzieller 4900X oder 5900X bereits draußen sein, der auf eurem Board auch läuft.

Habt ihr vor, da kurzfristig umzustellen, was natürlich auch bedeuten würde, den ganzen Parcour von 3080 und 3090 nochmal zu machen, oder bleibt ihr 2020 erstmal beim 3900XT?


Edit: Gerade in einem anderen deiner Posts gelesen, dass es 2020 beim 3900XT bleibt. Wenn ihr danach das System sowieso nochmal ändert, wäre ich tatsächlich für die beiden Releases beim 10900K geblieben.
wie, wat, warum? steht doch allet auf Seite 3!?
Wolfgang schrieb:
Zudem kommt ja bald auch Zen 3, da wird also in nicht ewiger Zukunft nochmal gewechselt.
 
BOBderBAGGER schrieb:
Im oder nahe dem GPU Limit ? Wo sollen da die 50% herkommen ?

Wenn du die GPU nicht auslasten kannst, kommst du noch nichtmal ans GPU Limit. Da wollen wir ja hin kommen, fehlen dir jetzt wie bei SOTR einfach mal bis zu 50% Leistung durch die CPU (wenn ich jetzt mal den OC Bench von z.b. snakeyes von SOTR nehme, ja der kann in diesem Spiel z.b. 50% mehr mit seiner config abliefern als AMD) , dann kannst du keine 3080 mit einer 3090 vergleichen weil du ständig im CPU Limit hängst. Die Testmethodik hat dann einfach mal versagt.

Und es wurde doch seit Monaten gesagt, dass die kommende Nvidia Gen die Unterschiede deutlicher aufzeigen wird, weil bei den CPU Tests viel zu oft die GPU limitiert. Und jetzt wollen wir GPUs vergleichen und schaffen wieder CPU Limits, damit man die GPUs nicht vergleichen kann. Das ist kompletter Schwachsinn. PCI-E hat deutlich deutlich weniger Einfluss auf die Leistung als der Wechsel von nem 10900K/9900KS oder was auch immer zu nem AMD. Das ist einfach der falsche Ansatz, dann wartet man halt auf Rocket Lake, wenn man unbedingt auf PCI-E 4.0 setzen will zum GPU benchen.
 
  • Gefällt mir
Reaktionen: Taxxor und jk1895
Was im Test mal für mich interessant wäre: 2080 Ti vs. 3080 bei gleichem PowerTarget.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Nun fehlt nur noch das große Finale. Ich nehme mal an nächsten Monat sind wir alle schlauer und die Interessenten werden die Shops stürmen :daumen: Schon mal Danke schön für eure aufwändige Arbeit.
 
Battlefield 5 ist weg! 😭😭😭

Ich spiele leider seit Jahren nur Battlefield auf meinem Rechner. Für andere Spiele habe ich keine Zeit.
 
NDA der Benches wurde auf den 16ten verschoben. Angeblich haben nicht alle Reviewer ihre 3080 rechtzeitig erhalten...

Und die 3070 wird ab dem 15.10. bestellbar sein.
 
incurable schrieb:
Hier geht es nicht um Kaufempfehlungen für ein System, sondern um den GPU-Testparcours, und da ist es nun mal Sinn der Sache, alle Flaschenhälse außerhalb der GPUs selbst so gut es geht zu eliminieren.

Hier freiwillig eine laut Computerbase-eigenen Messungen ~10% langsamere CPU zu verwenden ist logisch nicht nachvollziehbar und führt zu Arbeit für die Mülltonne.
Ergänzung ()

Auf welcher Basis?
Smartin schrieb:
Warum nimmt man bitte einen 3900XT in einem Gamingtest?
Ist für mich nicht nachvollziehbar.
jk1895 schrieb:
Die gewählte CPU macht tatsächlich absolut keinen Sinn. Die Intel 10900k wäre die richtige Wahl, da es die schnellste Gaming CPU ist. Warum sollte man die Grafikkarten durch eine langsamere CPU limitieren, wenn es nur ums Zocken geht bei diesen Tests?
SPECIALIZED- schrieb:
Warum bitte die CPU ? .... könnt es auch gleich sein lassen mit den Tests....:rolleyes:
Smartin schrieb:
Der Unterschied zwischen PCIE 3 und PCIE 4 dürfte deutlich geringer ins Gewicht fallen, als der zwischen einem 3900XT und einer 10900K.

Ich verstehe das Problem nicht. Soll doch ein GPU Bench sein? Sprich die GPU ausgelastet werden und am Limit laufen und nicht die CPU? Was juckt es da eigentlich dann was für ne CPU im System steckt??? Ist doch absolut schnell genug dafür wie es auch im Artikel steht und zu dem jetzt auch gut vergleichbar mit anderen renomierten Seiten die ebenfalls wegen PCIE4 auf AMD setzen. Alle kommenden Konsolen setzen ebenfalls darauf sprich sogar eine Vergleichbarkeit gegen Konsolen ist auch noch gegeben. Kommende GPUs benutzt wohl keiner für FHD. Beide Marken sollen RTX können und es ist doch bekannt dass da immer GPU Limit herscht. Im Artikel steht es auch drin dass es in erster Lienie um ebenso Benches der Technologien geht wie DLSS, RTX, max Details usw. Reguläres Benchen war gestern und man geht eben mit der Zeit was auch richtig ist. Dazu gehört eben auch PCIE4. Vielleicht hat das eben doch einen Einfluss mit den kommenden GPU Generationen. Steht zu dem doch auch im Artikel ganz deutlich drin, dass sich an den Leistungswerten bei 4K (was mit der kommenden Generation und die nächsten Jahre das neue FHD wird) fast nicht zum alten System geändert hat, sprich GPU Limit womit wir wieder beim GPU ausreizen sind und keine CPU Limit sehen wollen. Passt doch?!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
@über mir + Zitate: Death Stranding zeigt dass mehr Kerne mehr bringen, wo AMD die Nase vorn hat.

Bei Betrachtung der Benches in letzter Zeit kommt mir der Eindruck, dass CPUs mittlerweile wieder gut zum Flaschenhals werden können oder anders gesagt es kann nicht schnell genug sein (Siehe Doom mit bis zu 1000 FPS als Extremfall ^^). Die neuesten Intel CPUs zeigen auf, welche Sprünge noch möglich sind.

Ja hm, eine Intel CPU wäre geeigneter in der Summe, die sind schneller, aber ich denke auch bei der AMD CPU werden die Unterschiede der GPUs gut sichtbar.

Wie es mit mehrkernoptimierten Spielen in der Zukunft aussieht, wer weiß, ich meine eher wann. Vorallem bei Blockbustern, die bekannt sind und von vielen gespielt werden (für die Tests).
 
eLw00d schrieb:
Battlefield 5 ist weg! 😭😭😭

Finde ich auch unglücklich, da die Frostbite Engine in BFV die GPU und auch CPU penetriert und daher wunderbar m.E. für Laststests geeignet ist.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
@Jan und @Wolfgang

nach dieser Resonanz bei Jan und bei mir, freuen sich definitiv noch viele mehr, dass zukünftig Grafikkarten und CPUs auch bei anderen Anwendungen (zb DaVinci Resolve, Premiere Pro, Cinema4D, Lightroom) usw) als nur Spiele getestet werden.

Momentan ist ja nur Pugetsystems eine Quelle für solche Tests.

toll, dass Computerbase da nun auch in diesem Bereich testen wird.

danke schon mal und bin gespannt. :)

cb1.JPG



cb2.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper, CableGuy82, cruse und eine weitere Person
Zurück
Oben