Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestHigh-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich
Also auf den letzten LANs waren locker 20% aller Monitore ein 3440x1440p Panel. Auch im Freundeskreis besitzen sogut wie alle Leute 21:9 ... oftmals 3440x1440p
Und zuletzt ist der Speicherverbrauch mit Raytracing höher. So gibt es bei den Raytracing-Benchmarks mehr als einen Fall, wo 8 GB nicht mehr ausreichend sind.
Vorallem ist das egal, wenn die Plattform identisch bleibt bei den Test. Ob mit einem Intel die Wert +/- 1-2% wären ist völlig unerheblich, da sie für alle games und Tests gelten.
Bei einem GPU-Testsystem muss man den Einfluss aller anderen Bauteile minimieren um bestmögliche Aussagen über die Unterschiede zwischen den getesteten GPUs treffen zu können. Das macht man nicht, wenn man ohne Not eine CPU einsetzt, die in den seiteneigenen Tests um ca 10% weniger leistet als die Bestmögliche.
Und, nein, der Unterschied ist keineswegs konstant oder einfach rausrechenbar, da hier überall dort die GPUs Däumchen drehen, wo sie sinnlos auf eine langsamere CPU warten müssen, und das Problem mit zunehmender GPU-Leistung an Gewicht gewinnt.
Mustis schrieb:
Nein ganz selbstredend du. Weil du nicht verstehst, warum das so egal ist...
@incurable@Smartin@jk1895 woher willst du wissen, ob Intel vs PCIe 4.0 mehr bringt? Evt. hat CB schon einen neuen Ryzen und weiss, dass der besser ist als die PCIe 3.0 Hochfrequenzkerne von Intel. Könnte den 3900XT dann ersetzen! Auch gibt es Spiele, z.B. Death Stranding, wo die Ryzen CPUs Intels Chip, total zerlegen!
@Naesh umd bei der Dorf LAN von letzter Woche, hatte keiner 3440x1440p, über 90% 1920x1080p, bei 27 Personen . Die Einzigen die 3440x1440p haben, sind Simmer, bei meinen Bekannten!
Der gesamte Testaufbau ist näher an der Realität als ein Intel-Highend Setup. Und ComputerBase damit näher am Endverbraucher. Absolut NICHT für die Tonne.
Es handelt sich hier um einen GPU-Testaufbau, was Du oder andere dann in ihre System packen ist dafür unerheblich, es geht rein um die maximale Reduzierung der externen Einflüsse.
Na schön dann sehe ich direkt den Vergleich von meiner Vega 64 zu den neuen Karten
Wobei meine Vega auch ne Ecke schneller ist als das Referenzmodell hier habe ich das Gefühl. Ich muss mir mal ein paar der getesteten Spiele schnappen und aus Interesse selbst mal nachbenchen.
Dazu müsste ich erst mal rausfinden was genau jeweils als Benchmarkszene herhalten soll und mit welchen Settings.
Das wäre vielleicht mal wieder ne interessante Sache für einen Community-Test.
Generell kommt mir das Ergebnis der V64 hier aber etwas schwach vor. Dafür dass die hier auf den unteren Rängen spielt kann ich mich in Spielen bisher überhaupt nicht beschweren.
Wobei, aktuell spiele ich vorwiegend den Flight Simulator, da habe ich so 37fps und damit läuft der aber wunderbar flüssig, was man so gar nicht vermuten würde. Vielleicht sollte man sich mehr von dieser Zahl trennen, diese ausblenden, und sich einfach auf sein Gefühl verlassen.
Mein Ziel sind eigentlich dennoch 100fps in UWQHD mit High Settings. Klappt je nach Spiel mal mehr mal weniger gut.
Naesh schrieb:
Ich vermisse auch weiterhin die mittlerweile ziemlich weit verbreitete 3440x1440p
man kann ja mal dann den 10900K (und anderen CPU von Intel) mit dem gängigen 3700x, dem 3900XT mit einer verknüpften 3080 und 6000er AMD vergleichen und schauen was rauskommt.
(wenn man wieder paar tests veröffentlichen möchte)
Was ich damit sagen wollte, sie beziehen sich auf diesen Artikel und weniger auf das Testparcours. Die RTX3080 und kommenden Navis werden wohl kaum mit den vor dir angegebenen Treiber Versionen funktionieren.
Der Steam Survey ist hierfür komplett irrelevant. Der Großteil der Systeme da drin sind asiatische Internetcafés.
Das spiegelt das CB Publikum mal so überhaupt nicht wieder.
Schau doch einfach mal was da so drin steht. 3/4 der Karten im Steam Survey sind "gerade so" FHD tauglich.
GTX1050ti, RX580, GTX970, etc. pp.
Gleiches Spiel bei den CPUs: 95% der Intel Prozessoren im Survey schaffen keine 3,7GHz.
Gestern hat noch einer dieses Video gepostet von JayzTwoCents. Der nimmt nicht mal die 3900x weil die 3800x schneller ist wegen Turbotakt wie es scheint. Die Unterschiede in den FPS zum Intel-System sind mehr als nur minimal. PCIe 3 oder 4 hat keine Auswirkungen zur Zeit.
Naja, am Ende ist es egal. Die Rangfolge ist entscheidend und bei dem gemessenen FPS muss man sich halt ein paar % dazurechnen wegen dem CPU-Bottleneck.
Doch doch, das habe ich. Ich habe verstanden, dass das Ergebnis in der Relation der Karten sich durch die CPU höchstens dann ändert, wann man ins CPU Limit rennt, was bei dem Testparcours aber selbst in FHD nicht der Fall ist. Das würde man nämlich sofort erkennen, ein CPU Limit stellt sich sehr klar erkenntlich dar. Und dannn brauche ich nur nochmal in 4k vergleichen, wo ein CPU Limit völlig ausgeschlossen ist und kann dann wieder abstrahieren. Auch eine Intel CPU schützt nämlich im Falle nicht vor einem CPU Limit, dafür ist ihr Vorsprung viel zu marginal.
Alter, es wurde dir jetzt schon mehrfach erklärt, wieso ein AMD und nicht ein Intel verwendet wird. Leb damit und hör auf mit deinem Schrott weiter das Forum hier vollzuheulen.
Das gilt auch für die anderen Nörgler.
Der 10900K ist ganze 1% in UHD schneller.... OH NEIN!!! Jetzt hat die Computerbase ganz umsonst unzaehlige stunden gearbeitet um dir GRATIS einen Grafikkartenvergleich zu liefern!