Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

aldaric schrieb:
Grade in Anbetracht dessen, dass immer mehr Reviewer auf ein AMD Testsystem wechseln, verstehe ich die Diskussion hier umso weniger.

Das ist nun gar kein valides Argument. Nur weil AMD oder Intel draufsteht und jemand anderes etwas tut,heißt das noch lange nicht, dass es gut ist.

Unter Strich wäre es vermutlich die beste Lösung gewesen den 10900K auf Sockel 1200 zu nutzen, oder den 9900K beizubehalten um danach auf Rocket Lake umzusteigen. Dieser wird schneller als Zen 3 und bietet auch PCie 4.0.

aldaric schrieb:
Ich traue da den Redakteuren von den großen Portalen mehr, als ein paar Foristen mit Heugabeln und Fackeln.

Und das ist als Argument noch schlechter, du machst deinem Ruf wieder alle Ehre. ;)
Am Ende gehts wieder nur um AMD vs. Intel. Du würdest wahrscheinlich auch auf ne AMD CPU setzen wenn sie 40% langsamer wäre.^^

Es wäre sehr sinnvoll zumindest die 3080/3090 auch mal auf das 10900K Testsystem zu schnallen und ein paar CPU limitierte Spiele wie Breakpoint, Anno oder Metro Exodus drüberlaufen zu lassen, genauso sinnvoll wie PCIe 4.0 vs 3.0 Tests zu machen, von denen man das Ergebnis aber irgendwie schon vorhersehen kann.

stevefrogs schrieb:
Perfekt ist der Kompromiss sicher auch nicht, weil zB Death Stranding ja auch von einem 3900XT in 1080p profitieren kann, dank der guten Kernskalierung.

Death stranding hat eine äußert geringe Kernskalierung.
Der 9900K ist nur 25% vor dem 7700K, trotz mehr Cache, höherem Speichertakt und höherem ST wie Allcore Takt.
Das skaliert vielleicht mit 5 bis 10% von 4 auf 8 Kerne mit SMT.

Death Stranding ist - soweit ich informiert bin - ein Konsolenport.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: incurable und ZeroStrat
@Taxxor
Gemeint sind die FPS Abstände. Die Balken bei UHD sind dicht beieinander. FPS sind niedrig. In FHD sind die FPS Abstände höher und die Balken im ganzen laenger, als mehr FPS.

Im Übrigen ist das überall beobachtete allgemeingültige Bild so, dass unter UHD alle Karten zusammenrücken und die Unterschiede zwischen den Karten kleiner werden. Umgekehrt also unter FHD die Abstände Größe r werden. Meine Aussage passt.

Deine Zahl kann ich nicht kommentieren, da mir der Zusammenhang fehlt.
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
Death stranding hat eine äußert geringe Kernskalierung.
Der 9900K ist nur 25% vor dem 7700K, trotz mehr Cache, höherem Speichertakt und höherem ST wie Allcore Takt.
Das skaliert vielleicht mit 5 bis 10% von 4 auf 8 Kerne mit SMT.

Death Stranding ist - soweit ich informiert bin - ein Konsolenport.
Death Stranding wurde von anfang an auch für PC mit geplant, daher skaliert es ja auch sogar noch ein wenig von 12 auf 16 Kerne.

Horizon Zero Dawn hingegen ist ein Konsolenport.
Ergänzung ()

LencoX2 schrieb:
Im Übrigen ist das überall beobachtete allgemeingültige Bild so, dass unter UHD alle Karten zusammenrücken und die Unterschiede zwischen den Karten kleiner werden. Umgekehrt also unter FHD die Abstände Größe r werden. Meine Aussage passt.

Deine Zahl kann ich nicht kommentieren, da mir der Zusammenhang fehlt.
Schau dir doch den Test an unter dem wir hier schreiben.

Der Abstand zwischen 2080Ti und 2080S ist mit 22% in 4K am größten, sinkt in 1440p bereits auf 19% und endet in 1080p bei 15%.

Der Abstand zwischen 2080S und 2070S hingegen ist in 4K, 1440p und 1080p überall gleich groß, was zeigt, dass in dieser Tabelle nur die 2080Ti deutlich langsamer wird relativ zu den anderen Karten, wenn die Auflösung sinkt.
Und die naheliegendste Erklärung dafür ist eben, dass die 2080Ti in den niedrigen Auflösungen mehr leisten kann, als die CPU zulässt und sie daher nach oben hin gedeckelt wird.
Die Karten darunter kommen auch in 1080p noch unter Vollast nicht auf die FPS mit denen sie der CPU Probleme machen würden, daher ändert sich zwischen diesen auch nicht viel.


Und natürlich rede ich vom relativen Abstand und nicht von absoluten FPS Zahlen, denn man will daraus ja auch am Ende eine Performancetabelle für die jeweiligen Auflösungen machen, die immer relativ ist und sich dadurch auch die Balkenlänge in 4K stärker unterscheidet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., incurable und Esenel
Mal so als halb Bemerkung, halb Frage in den Raum geworfen, warum sind eigentlich nicht gefühlt alle Reviewer übereifrig auf ein AMD System gewechselt, als Navi gelauncht wurde?
 
@Taxxor Benchmarks genauer angeguckt.
Es gibt mehrere Erklärungen.
Eine ist, dass die CPU in kleinen Auflösungen die 2080Ti nicht gut auslastet.
Eine andere, dass bei 2080S in hohen Auflösungen die RAM Größe und Bandbreite nicht ausreichend.
Eine andere, dass die SW die 2080Ti in niedrigen Auflösungen nicht gut auslastet.
Eventuell habe ich noch was vergessen. Die Zusammenhänge sind komplex. Oftmals liegt ja die Wahrheit in der Mitte, ist eventuell eine Mischung von allem.

Die einzige Erkenntnis, die man hier am Ergebnis mit Gewissheit hat ist diese: die 2080Ti ist in UHD mindestens 22% schneller und FHD mind. 17% als 2080S. Das gilt nur für dieses SW und HW Set!

Ich kann nur empfehlen es selbst zu machen, wenn man der Meinung ist es anders oder besser machen zu können.

Mir ist das Thema auch nicht wichtig genug um noch länger drüber zu schreiben. Bin draussen.

Alles gute euch allen !
 
  • Gefällt mir
Reaktionen: Smartbomb und PS828
LencoX2 schrieb:
Benchmarks genauer angeguckt.
Es gibt mehrere Erklärungen.
Und alle deine drei genannten habe ich eben selbst schon beschrieben.

Und auch, dass man eine der drei direkt ausschließen kann, wenn man die schnellstmögliche CPU nutzt.

Das garantiert zwar immer noch nicht, dass man nirgendwo mehr ein CPU Limit drin hat, aber es beschreibt auch einen Grad an CPU Leistung die beim Nutzer zuhause nicht höher sein könnte.
 
  • Gefällt mir
Reaktionen: incurable
ZeroStrat schrieb:
Mal so als halb Bemerkung, halb Frage in den Raum geworfen, warum sind eigentlich nicht gefühlt alle Reviewer übereifrig auf ein AMD System gewechselt, als Navi gelauncht wurde?
Naja das könnten dir ja nur die Reviewer selber sagen, allerdings ist es im Falle der großen IT-Onlinemagazine wo dieses nunmal auch dazugehört, immer eine Redaktionelle Entscheidung mehrerer und nicht einzelner. Da man auch nicht wenig Konkurrenz hat ist man da nicht so frei wie manche Nutzer es gerne hätten.
Im Grunde genommen finde ich das nicht schlecht, dass man auch mal Graka/Ryzen Benchmarks zu sehen bekommt. Ich finde es nicht verkehrt die Unterschiede mal in Zahlen zu sehen und es gibt soviele IT Portale die testen da ist die um ein zwei Ryzen CPU´s erweiterte Palette alles andere als ein Beinbruch.
 
A.Xander schrieb:
@incurable wenn du meinst. Fragwürdig ist es ja nicht das zeigen diese Tatsachen.
Wenn neben @Wolfgang auch die PCGH nicht den eigenen CPU-Ergebnissen folgt ist das sehrwohl fragwürdig. (nur ist das hier nicht das Forum der PCGH und daher hab ich das auch nicht erwähnt, warum auch)

A.Xander schrieb:
der Fehler scheint mir eher das du denkst diese Entscheidung wäre ein Einzelfall.
Ich weiß nicht, woher diese Vorstellung kommt, mit der einfach recherchierbaren Realität hat sie jedenfalls nichts zu tun.

A.Xander schrieb:
Der Test ist übrigens nicht nur dazu gedacht der Kaufberatung als Grundlage zu dienen. Wie bei Fachartikeln üblich sind die Leser solcher meistens durchaus versiert und wissen das die Cpu eher zweitrangig ist, das hat sich nicht gravierend geändert weil die jetzt 10% langsamer ist, anders ist das mit PCI-E 4.0 da wollen die meisten mehr Infos zu und deswegen ist es so wie es ist.
Die die sich nicht sicher sind und mehr wissen wollen oder gar nicht auskennen kommen dann in die Kaufberatung.
Ich kann nur vermuten, dass Du meine Beiträge nicht gelesen hast. Schade.
 
@Wolfgang
Ist die GPU Testszene von Metro Exodus noch die gleiche wie im verlinkten Artikel?
Ich denke mich zu erinnern ihr hättet die Szene mal gewechselt?

Also die Infos und Szene zu SotTR und eine Bestätigung zu Metro Exodus wären hilfreich.


Danke und sorry für die vielen Nachfragen.
 
ZeroStrat schrieb:
Mal so als halb Bemerkung, halb Frage in den Raum geworfen, warum sind eigentlich nicht gefühlt alle Reviewer übereifrig auf ein AMD System gewechselt, als Navi gelauncht wurde?
Vorab, das gehört alles zur Produktentwicklung, dem Marketing und der Produktplatzierung am Markt einfach dazu und Intel gerät (dank Eigenverschulden, Versagen, immer merkwürdigeren Produktvorstellungen bei denen das Produkt der Konkurrenz mehr genannt wird als das eigene neue und zu guter letzt äußerst unattraktiven und vor allem der Realität nicht entsprechenden Preisen) im DiY Bereich halt eins ums andere Mal ins Hintertreffen. Intel wusste übrigens mal um die Bedeutung des DiY Marktes, nicht dass dort so viel Geld zu verdienen ist, aber die Meinung, das Wort des DiY Segments hat auch Heute noch ein gewisses Gewicht!

Dass "so viele" / "fast" alle den Wechsel auf AMD Testsysteme machen, kann technisch mit PCIe 4.0 begründet werden, wobei zusätzlich zu diesem Aspekt wohl auch die zu erwartende Mehrleistung (wenn es nicht auf den letzten Metern noch Probleme gibt) von Zen 3 nicht schaden wird. Das Intel mit Comet Lake oder dem Teich danach gegen Zen 3 gegenhalten kann, glaub ich persönlich nicht wirklich, wenn höchstens unter Einsatz der nächsten Brechstange, aber da kann ich mich natürlich auch täuschen, die Zeit wird es zeigen.

Meiner Meinung nach ist der Wechsel zum jetzigen Zeitpunkt einfach nur dem marktwirtschaftlichen Umstand geschuldet, dass halt die Zielgruppe hier (Online & Print Medien und Video & Streaming Portalen) überwiegend aus der DiY Ecke kommt, und wenn man von einigen wenigen "what ever it cost" FPS Fanatikern und z.Z. deswegen Intel Kunde absieht, hat Intel gerade in diesem Bereich innerhalb des letzten Jahres vor allem wegen AMDs Zen 2 verloren.
Auf gut deutsch: "kein Schwein interessiert sich derzeit dafür, was eine Ampere Karte mit einem i10900k (womöglich bis an die sehr schnell erreichte Kotzgrenze hochgetaktet) leisten könnte, nachdem diejenigen, die bereit sind Geld auszugeben, sehr wahrscheinlich in den letzten 12 Monaten gar nicht mal so viel Geld ausgeben mussten, um auf ein Zen 2 (überwiegend Ryzen 3600 bis 3700x) System zu wechseln und je nach Board noch den unkomplizierten Wechsel auf Zen 3 als höchste AM4 Ausbaustufe machen können".

Für den "what ever it Costs" FPS Fanatiker mag das traurig sein, aber Intel spielt derzeit im allgemeinen DiY Bereich nur die zweite Geige (und das noch nicht mal unbedingt mit einem 10600K, sondern wahrscheinlich eher mit dem vergleichsweise gemütlichen 10400).
Solange Intel nicht wieder abliefert und sich dann auch noch erneut bewiesen hat, so dass viele DiY Käufer auf einen Rutsch (innerhalb eines vergleichbar kurzen Zeitraums wie es AMD mit Zen 2 gelungen ist) wieder auf Intel Systeme umzusteigen, lohnt es sich erstmal einfach nicht, diese kleine Rubrik in dem eh schon kleinem DiY Segment zu bedienen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Sophisto, Thorque und 2 andere
Also eine politische und keine wissenschaftlich begründete Entscheidung. Das war ja sowieso von Anfang klar für mich, nur will man das nicht so laut sagen, da zu viele AMD-Wähler hier unterwegs sind (60% oder waren es gar 70?). 😛
Ob das der richtige Weg ist werden wir im Test sehen.
 
incurable schrieb:
Ich weiß nicht, woher diese Vorstellung kommt, mit der einfach recherchierbaren Realität hat sie jedenfalls nichts zu tun.
Wie recherchierst du das denn ohne eine 3080 zum testen? Die NDA noch läuft auch noch. Also los gehts am Mittwoch vorher basiert das auf nicht aktuellen Daten.

incurable schrieb:
Wenn neben @Wolfgang auch die PCGH nicht den eigenen CPU-Ergebnissen folgt ist das sehrwohl fragwürdig. (nur ist das hier nicht das Forum der PCGH und daher hab ich das auch nicht erwähnt, warum auch)
Das ist nicht fragwürdig, das ist nur deine Meinung und schon wieder redest du von @Wolfgang der hat den Test verfasst, ich glaube nicht dass er bei einem Format mit zigmillionen Zugriffen alleine entschieden hat das Testsystem zu ändern. Wissen tue ich das natürlich nicht, ist aber halt einfach logisch.
incurable schrieb:
Ich kann nur vermuten, dass Du meine Beiträge nicht gelesen hast. Schade.
Doch hab alle gelesen aber du scheinst nicht verstehen zu wollen das hier geschrieben wird was die Leser wollen und das ist nicht was ihr hier 40 seitenlang wiederholt sondern das was @catch 22 in #791 geschrieben hat.
 
@catch 22 naja du unterschätzt Rocket Lake enorm...wir alle wissen, dass CB in ihrem CPU Parkours den Ryzen durch die Auswahl des RAMs enorm bevorteilt und die Intels hart kastriert. Bei gleichem RAM ala 3200-3600 dürfte man nicht 15% sondern eher locker 20% zwischen den CPUs sehen und das mit alltagssetups. du kannst einfach nicht gammelram mit 2933 mit 3200cl14 Samsung B Dies vergleichen. dreh den ryzen fairerweise auf 3200CL16 zurück und du hast auch im CB Parkours die 20% Abstand.

Jetzt nimm das mal als Richtwert den AMD in Spielen aufholen muss...das wird Architekturbedingt nicht einfach. Und jetzt hast du bei Intel nochmal das ganze RAM Oc Potential nach oben...da holdt du mehr raus als bei AMD mit Highend Setups...wie gesagt SOTR liefert snakeeyes 50% hoehere FPS ab als die Top AMD OC Systeme

Und Rocket Lake kommt zwar wieder in 14nm damit der Yield und die Taktraten passen, es ist aber im Endeffekt der Backport der 10nm Architektur von Ice/Rocket Lake mit der neuen Core Architektur...und da hat dich ne Menge getan, deutlich mehr als von Haswell zu Skylake und so viel hat die CPU auch nicht mehr mit Skylake zu tun wie manche denken. Man kann da durchaus von 20-30% ausgehen. AMD wird vielleicht in Spielen an Comet Lake dran kommen, aber Rocket Lake wird die alten Abstände wieder herstellen.

Und immer im Hinterkopf behalten, Leistungsmäßig tut sich AMD immer noch schwer gegen den 8700K, das Leistungsniveau ist jetzt aber ausch schon „veraltet“, daher umso mehr ein Unding für einen GPU Test auf das Leistungsniveau von 2017 zu setzen und nicht von 2020 (comet lake). Da kann die Technik noch so “neu” sein, dass Leistungsniveau von Zen2 in Spielen ist veraltet und man hängt Intel immer noch 3 Jahre hinterher, PCI-E 4.0 hin oder her.
 
jk1895 schrieb:
Also eine politische und keine wissenschaftlich begründete Entscheidung. Das war ja sowieso von Anfang klar für mich, ...
Nicht politisch, sondern wirtschaftlich.
Es ist seitens den Testern natürlich von Interesse in einer Testumgebung zu benchen, die dem Leser / Zuschauer eine gewisse Bindung zum eigenem genutztem System anbietet, da ansonsten das Interesse und die Klick / Auflagenzahlen geringer ausfallen können und somit alles, was hinten zwecks Monetarisierung dran hängt.

Das mag man nun für verwerflich halten, aber man sollte nicht vergessen, dass die Leute nicht für Luft und Liebe allein arbeiten und Büros, die Hardware, ... auch noch Geld kosten.

Was den wissenschaftlichen Part angeht ... würde der in der Community tatsächlich eine Bedeutung haben, ungeachtet der Kaufpräferenzen, dann hätte es neben mir ein paar mehr Stimmen (wo war deine?) gegeben, die den vorgegebenen und vor allem freigegebenen "Bench" der 3080 durch vielleicht ansonsten unabhängigen Digital Foundry (die waren mir bisher gänzlich unbekannt und ich kann die daher nicht entsprechend einschätzen) hart kritisiert hätten. Denn diese Nummer war so wissenschaftlich wie der Wissenschaftler über den Otto Waalkes in seinem Program in den 70ern und 80ern kund tat ... der Wissenschaftler von dem man wissen wollte, wie er es geschafft hat in der Kneipe wieder Kredit zu bekommen.
 
  • Gefällt mir
Reaktionen: A.Xander
Jan schrieb:
Ich habe das ja hier und da schon mal geschrieben: Mir würden hier auch mal wirklich handfeste Wünsche helfen. nicht "Premiere Pro" oder "DaVinci". Also, her damit! Sonst machen wir hier einen Akt und dann war's am Ende genau die falsche Funktion, der falsche Filter, das falsche Dateiformat etc. pp....

Hilft dir das vielleicht weiter?

https://www.liftgammagain.com/forum/index.php?threads/resolve-standard-candle-benchmark.3718/

https://www.reddit.com/r/Amd/comments/auc7ti/standard_candle_benchmark_for_davinci_resolve/

Das ist eigentlich so der go-to Benchmark für Resolve. Würde mich ebenfalls super freuen wenn das mit in den Parcours übernommen werden würde!
 
  • Gefällt mir
Reaktionen: stevefrogs, Jan und A.Xander
gunmarine schrieb:
@catch 22Und Rocket Lake kommt zwar wieder in 14nm damit der Yield und die Taktraten passen, es ist aber im Endeffekt der Backport der 10nm Architektur von Ice/Rocket Lake mit der neuen Core Architektur...und da hat dich ne Menge getan, deutlich mehr als von Haswell zu Skylake und so viel hat die CPU auch nicht mehr mit Skylake zu tun wie manche denken. Man kann da durchaus von 20-30% ausgehen. AMD wird vielleicht in Spielen an Comet Lake dran kommen, aber Rocket Lake wird die alten Abstände wieder herstellen.
Man geht von 10% IPC-Steigerung aus und der Takt bleibt bei um die 5 GHz. Dazu geht's wieder zurück auf max. 8 Kerne. Rocket Lake wird den gleichen Gastauftritt erleiden wie damals Broadwell-E.

Screenshot 2020-09-14 061218.png
 
  • Gefällt mir
Reaktionen: Smartbomb
Ich glaube es kaum, ich hab echt über Tage sämtliche Kommentare bisher gelesen!
Inhaltlich tut sich leider nichts Neues. Jeder beharrt stur auf seiner Meinung.

1.) Immer wieder lustig wie gewisse Leute meinen, dass man das neue PCIe4.0 Testsystem ja erst für die neuen GPUs braucht und doch jetzt noch nicht für die "alten" Karten verwenden soll.
--> Leute, das Testsystem IST für die neuen GPUs!! Damit man am Releasetag der Benchmarks der neuen GPUs aber auch den direkten Vergleich zu den bisherigen GPUs hat, wurden die schonmal vorab durch den Parkour gejagt. UND halt JETZT schon veröffentlicht anstatt bis zum Release der Benches der neuen GPUs zurückgehalten! Wollt ihr @Wolfgang das wirklich ankreiden? Das ist das Testsystem für die NEUEN GPUs und nicht für die alten! Die alten sind nur zur Vergleichbarkeit drinnen, um zu zeigen, wieviel die neuen schneller sind!

2.) CPU Limit und korrekte, methodische Tests:
Ja, dass der letzte, teure, heiße und schwer erhältliche Brechstangen Comedy Lake die absolut gesehen schnellste Spiele CPU ist, dürften mittlerweile auch wirklich ALLE wissen.
Wie man schon lesen durfte, musste sich Wolfgang/Die Redaktion/Die Macht entscheiden: die neuen Features der neuen Karten ausprobieren zu können, ODER evtl minimal mehr absolute fps in FullHD in gewissen BENCHMARKSEQUENZEN zu erreichen.
Die ganzen Kritiker dieser Entscheidung dürfen sich gerne fragen, was die allermeisten Leser mehr interessiert: minimal mehr fps (eventuell!) in einer Benchmarksequenz in FullHD (aka CPU Test), oder die Features der neuen GPUs zu testen, jetzt und in naher Zukunft?
Zudem die Reihenfolge der GPUs gleich bleibt und sich die absoluten fps höchstens mal um das eine oder andere % (maximal) ändern.
Was genau niemanden interessiert! Weil: nimm ne andere Sequenz --> andere fps. Nimm anderen Treiber --> andere fps. Patche das Spiel --> andere fps. Nimm die dann neuere Win 10 Version --> andere fps.
Usw.
Und warum rtx2070 bis rtx2080S skalieren, aber die rtx2080ti nicht so gut? Ja eventuell liegts am unterschiedlichen vram? Eventuell am kack nvidia Treiber? Evtl hat die so viele shadereinheiten, dass sie schwer bis gar nicht ausgelastet werden können durchs front-end (bisher typisches AMD GPU Problem, siehe Fury und Vega)? Oder das game einfach nicht weiter gscheit skaliert?
Glaubt von euch irgendjemand, dass die theoretische 10% CPU LeistungsDifferenz in +10% mehr fps endet? Dass da ein so hartes CPU Limit vorliegt?

3.) Warum sind bisherige Ergebnisse für die Tonne, wenn ab sagen wir Neujahr, eine ZEN 3 CPU ins Testsystem kommt? Bei den Balken die mit ZEN 2 erstellt wurden, kommt halt die Beschriftung drauf. Und nach und nach werden dann die Karten sowohl mit ZEN 2, als auch mit ZEN 3 getestet werden und man kann super die Ergebnisse direkt gegenüberstellen.
Meine Prognose: es tut sich original: Nichts. Da wird ein neuerer Treiber mehr ausmachen als die 1% Differenzen, die die GPUs näher zusammen oder weiter auseinander rücken. Außer Spesen (viel Arbeit) nix gewesen.

4.) Auf der PCIe4.0 x16 Plattform kann man PCIe3.0 x16 Simulieren, indem man nur 8 Lanes PCIe4.0 nimmt. Anders herum, mit PCIe3.0 x16 kann man NICHT PCIe4.0 x16 simulieren!

5.) CPU Kerne. Der AMD hat deren 12+smt, das Intel Flaggschiff deren 10+ (kaputtes) HT.
Jetzt ganz abseits von Performanceänderungen durch BIOS- oder Windoof Updates, hat der AMD halt 2 Kerne und 4 Threats MEHR als der Intel, womit man auch Spiele berücksichtigen KANN, die zur Abwechslung mal gscheit skalieren.
Ist für ein nagelneues, zukunftssicheres Testsystem nicht ganz unwichtig.
Und wenn kann man bei ZEN 3 ja auch den 16 Kerner reinhauen, falls jemanden die 12 Kerne oder der Unterschied von 10 auf 12 Kerne zu wenig ist.

Mehr fällt mir gerade spontan nicht ein, gibt aber sicher noch mehr Gesichtspunkte.

Nicht falsch verstehen: ich kann jedes Argument pro Comet Lake Flaggschiff Leute verstehen und nachvollziehen.
Ginge es NUR um BISHERIGE GPUs und deren Benchmarks, bin ich zu 100% bei euch.
Aber für die neuen GPUs will man natürlich deren neuen features ebenfalls testen, und da gehts halt nicht ohne PCIe4.0. Und da gehts eher weniger um die "normale" fps Berechnung, sondern darum, ob dieses game Streaming über ne möglichst schnelle PCIe4.0 SSD etwas bringt. Jetzt bald und auch bis zu dem Zeitpunkt in der Zukunft, bis das Testsystem komplett neu gebaut wird (DDR5 Zeit).
Und, wie oben: mit PCIe4.0 kann man PCIe3.0 Bandbreite simulieren, anders rum aber nicht!
--> wieviele Leser wären enttäuscht, wenn die neuen GPUs im bisherigen System laufen und man PCIe4.0 (sei es direkt fps, sei es game streaming, sei es eine Combo daraus) nicht testen kann?
Dann kommt: oh, Computerbase hängt hinterher und kann nichtmal die neuen Schnittstellen testen, die einige schon seit X570 Mainboard release zuhause und "ready" haben.
Denkt mal drüber nach!

In Summe würde ICH sagen: es gibt deutlich mehr Argumente für das PCIe4.0 Testsystem, auch wenn die CPU in Games leicht hinter der absolut schnellsten für diese Tasks liegt.
Wolfgang und die Redaktion haben diese Entscheidung sicher nicht voreilig und leichtfertig getroffen.
Selbst wenn JETZT PCIe4.0 zur GPU (fps only, kein gamestreaming/whatever) quasi nix bringt, kann man das in Zukunft jederzeit nachtesten, in dem man die Lanes von x16 auf x8 stellt und damit die Bandbreite von PCIe3.0 x16 hat.
Ist doch ein guter Deal, oder nicht? ;)
 
  • Gefällt mir
Reaktionen: Londo Mollari, A.Xander und LencoX2
das einzige argument ist pcie 4.0 und was soll das bringen wenn man schon kaum den Unterschied zwischen x8 und x16 merkt?

1% Leistung vs 20% Leistung durch die Auswahl der CPU. Da gibt es doch keine Frage was schwerer wiegt.
 
eyedexe schrieb:
Man geht von 10% IPC-Steigerung aus und der Takt bleibt bei um die 5 GHz. Dazu geht's wieder zurück auf max. 8 Kerne. Rocket Lake wird den gleichen Gastauftritt erleiden wie damals Broadwell-E.
Mittlerweile ist man schon bei 5.5GHz.
 
Zurück
Oben