Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

gunmarine schrieb:
du erzählst so einen quatsch, genauso könnte ich argumentieren, dass hier veraltete AMD Technik genutzt wird die sich immer noch schwer tut einen gefühlt uralten 8700K
AMDs Ryzen CPUs mit PCIe 4 ist also veraltete Technik?

10900k: skylake (seit 2015? Auf den Markt) und ein weiterer Aufguss einer alten Architektur.
 
  • Gefällt mir
Reaktionen: m2020 und llax
Jan schrieb:
Ich habe das ja hier und da schon mal geschrieben: Mir würden hier auch mal wirklich handfeste Wünsche helfen. nicht "Premiere Pro" oder "DaVinci". Also, her damit! Sonst machen wir hier einen Akt und dann war's am Ende genau die falsche Funktion, der falsche Filter, das falsche Dateiformat etc. pp....
Vielleicht kannst dazu nen neuen Artikel oder Thread aufmachen, ich befürchte hier geht es unter und nur wenige Anwender dieser Programme schauen hier rein.
danke :)
 
Dieses Thema führt zu nichts, weil hier schon wieder Markendiskussionen aufkommen und über den technischen Sachverhalt gestellt werden.
Offenbar identifizieren einige ihr Wertigkeitsgefühl mit der CPU, die in GPU- Tests benutzt wird.

Technisch gesehen ist es nunmal so, dass man versucht die GPU zu testen.
Will man das tun, muss man Störeinflüsse oder Flaschenhälse anderer Komponenten ausklammern, so gut es geht, da sonst die Ergebnisse verfälscht werden.

Also ist rein objektiv der einzige Weg für den Test die technisch maximal mögliche Plattform zu schaffen, die diese Voraussetzung am besten erfüllen kann.

Dann stellt man sich einfach ganz neutral die Frage welche Consumer Plattform bis ans äußerste geprügelt bei Spielen im Schnitt am wenigsten abseits der Grafikkarte beschränkt und schwups hätte man das nach aktuellen Möglichkeiten optimale Testsystem. Sowohl in der Theorie, als auch in der Praxis.

Da muss man garkein Drama draus machen.
Wird nicht nach oben stehender Maxime gehandelt, aber die Testbedingungen sauber ausgewiesen, muss man akzeptieren, dass gewisse Werte vom Testergebnis nicht erfasst werden können.
Diese kann man dann durch Tests in anderen Publikationen ergänzen bzw. einholen.

Spätestens mit Erscheinen der neuen Grafikkartengeneration, werden einige große Augen machen, weil die CPU, die sie in den vermeintlich praxisnahen Tests noch weit vorne gesehen haben und auch deswegen kauften, plötzlich abgeschlagen liegt und das Potenzial der neuen Karte nicht vollständig ausnutzen kann.
Vielleicht verstehen dann einige das Prinzip.

Die Leserschaft und deren Wille spielt für ein Magazin verständlicher Weise eine größere Rolle als graue Technik, was man hier anhand der zahlreichen positiven Reaktionen auf die Wahl der CPU auch mal anerkennen muss, macht man sich die Mühe ja für die eigene Leserschaft.

Und wenn die zu 99% wünscht, dass die Tests im Cowboykostüm durchgeführt werden sollten, dann wäre das im Sinne des Magazins/der Publikation, das genau so zu tun. Auch wenn manch anderer mit dem Kopf schütteln mag.

Mit einem Test wird man es nie allen recht machen können.

just my 2 cents
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, Kenjiii und 5 andere
@LencoX2
Du träumst dir ganz schön was zusammen :-D
Aber gut.

Ich werde ja dann die 3090 auf nem 10900K genau in den Szenen gegentesten.
Dann wirst ja sehen wie es aussieht.

Sieht man ja jetzt schon dass ein 3900X ne 2080Ti ausbremsen kann.
Also wirds bei der 3080 ned passieren.
Träum weiter ;-)
 
  • Gefällt mir
Reaktionen: DriveByFM
L3G0 schrieb:
Im Falle der Radeon RX 5500 XT mit 4 GB kann PCIe 4.0 bei Spielen, die mehr als 4 GB an Grafikkartenspeicher verlangen, einen großen Vorteil bringen. Im Schnitt steigen die Frametimes der Grafikkarte gegenüber PCIe 3.0 um 19 Prozent an. Die Radeon RX 5500 XT mit 8 GB zeigt dagegen ein gänzlich anderes Verhalten, mit PCIe 4.0 legt das Modell dann nur noch um 2 Prozent zu. Daraus lassen sich bereits drei Erkenntnisse ableiten.
Meine Glaskugel sagt mir, dass das nächste Jahr Spiele kommen würden, die ordetnlich nach VRAM verlangen. Passend dazu, kommen natürlich TIs, die ab 12GB aufwärts angeboten werden.

Die traumtänzer, die sich jetzt, als gebe es kein morgen mit 3080 eindecken und hier im Forum "das würde mir für die nächsten 4 Jahre reichen", beißen sich dann in den allerwertesten und verkaufen sie mit verlust wieder.
10gb x 4k x 4 jahre - ja, ganz sicher.
 
Ich muss noch sagen, dass ich es etwas schade finde, dass man nur auf "Maxed" testet!

Ich hoffe es kommen noch separate realitätsnähere Tests! Bei manchen games kriegt wie gesagt nicht mal die 2080ti auf 1920x1080 die 60FPS hin.... das ist doch total bitter für alle anderen User :D ?

Ein Umschalten zwischen MAXED und Mittel fände ich perfekt. Aber ja wäre doppelt so viel Arbeit :/...
 
llax schrieb:
Meine Glaskugel sagt mir, dass das nächste Jahr Spiele kommen würden, die ordetnlich nach VRAM verlangen. Passend dazu, kommen natürlich TIs, die ab 12GB aufwärts angeboten werden.

Die traumtänzer, die sich jetzt, als gebe es kein morgen mit 3080 eindecken und hier im Forum "das würde mir für die nächsten 4 Jahre reichen", beißen sich dann in den allerwertesten und verkaufen sie mit verlust wieder.
10gb x 4k x 4 jahre - ja, ganz sicher.
Nächsten Jahre...ok bis dahin gibts doch auch die nächste Plattform und die Graka, sofern es da nicht auch schon wieder was besseres gibt, kann pcie 4 ja...aber Standpunkt heute mit den Games von heute? Vergebene Liebesmüh meiner Meinung nach.
Traumtänzer ist der Richtige Ausdruck. Wo hat das bisher denn so RICHTIG geklappt? Power wird immer dann gekauft wenn sie gebraucht wird. Da auf eine "Lebensdauer" zu spekulieren ist in der Computer Branche irgendwie doof....

Ich wollte eigentlich aber nur mal Quellen/Tests zur Pcie 3 vs 4 Diskussion beisteuern. Hat davor ja keiner gemacht.
 
  • Gefällt mir
Reaktionen: xexex
Wer sich heute eine 3080 mit 10GB kauft und sie auf einem Comet Lake System mit PCIe 3.0 betreibt, der wird sich in 3 Jahren einfach ne neue Karte samt neuer CPU und dann womöglich bereits PCIe 5.0 holen.

Mehr VRAM zu nehmen und dafür etwas weniger Leistung, weil man evtl dann in 3-4 Jahren mit den anderen Karten, die vorher besser waren genau deshalb gleichziehen könnte, hat dann nur den Zweck erfüllt, dass man 3-4 Jahre lang die langsamere Karte hatte.
 
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, xexex und 5 andere
@Taxxor
Man darf natürlich bei der ganzen pcie Diskussion tatsächlich den Umstand nicht außen vor lassen, dass wir mit Direct storage da im Augenblick einen Technikkandidaten haben, der dort tatsächlich für nennenswerte Unterschiede sorgen könnte.

Die Nvidia Technik hat rein frameratentechnisch bis jetzt aber nicht mehr als im Schnitt 2% Unterschied ausmachen können beim Sprung von 3 auf 4
 
.Sentinel. schrieb:
@Taxxor
Man darf natürlich bei der ganzen pcie Diskussion tatsächlich den Umstand nicht außen vor lassen, dass wir mit Direct storage da im Augenblick einen Technikkandidaten haben, der dort tatsächlich für nennenswerte Unterschiede sorgen könnte.

Da wird ned viel passieren.
Microsoft wird das erst nächstes Jahr den Entwicklern vorstellen.
Danach muss es erst den Weg in Spiele finden und daweil sind ma wahrscheinlich in 2022 bei der nächsten GPU Generation.

Leider.
 
  • Gefällt mir
Reaktionen: .Sentinel. und nospherato
Erstaunlich wie viele Menschen sich in den letzten 35 Seiten Forum geouted haben.
Null verstanden, was dieser Test zeigen soll. (Relation zwischen den Grafikkarten)
Null verstanden, das man vor den veröffentlichten Tests zur RTX 3XXX Serie gar kein gerechtfertigtes Urteil fällen kann. Es fehlen uns allen schlicht und ergreifend zu viele Informationen. (PCIE3 vs 4 bei RTX3XXX Serie)

Es könnte sogar herauskommen, dass durch pcie4 sowohl die absolute als auch dir relative Leistung des 3900x höher als bei Intel ist..
Aber kann man heute einfach nicht sagen.


Die Tester und Reviewer allerdings schon, weil die schon am testen sind.

Das ganze subjektive bashing an dem Wechsel entlarvt viele der Kritiker: Intel ist schnellste CPU, also muss die auch im GPU Test sein, wird geschrien. Und das komplett ohne Datenbasis. Auf 35 Seiten kein EINZIGER relevanter Beweis für diese These. 35 Seiten Offenbarung, wie aufgeheizt bei Vielen dieses Thema ist, obwohl es eigentlich komplett egal ist.

Handfeste Kritik, wäre es zu zeigen (!!!), nicht zu behaupten (!!!), dass die Relation zwischen den kommenden Karten, sich wegen der AMD CPU ändert.
Wer das nicht macht, übt keine konstruktive Kritik. Stattdessen zeigt ihr damit lediglich, dass ihr entweder die Tests und deren Aussage nicht verstanden habt, oder aber echt total verblendete Markenanhänger seid.

Köstlich.
 
  • Gefällt mir
Reaktionen: Kodak, ComputerJunge, karl_laschnikow und 2 andere
Achim_Anders schrieb:
Das ganze subjektive bashing an dem Wechsel entlarvt viele der Kritiker: Intel ist schnellste CPU, also muss die auch im GPU Test sein, wird geschrien. Und das komplett ohne Datenbasis. Auf 35 Seiten kein EINZIGER relevanter Beweis für diese These.
https://www.computerbase.de/artikel...ie_schnellsten_gamingcpus_hat_weiterhin_intel

@Volker #entlarvt :freak:

https://www.hardwareluxx.de/index.p...ieg-intel-core-i9-10850k-im-test.html?start=9
Hardwareluxx #entlarvt :freak:

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/
PCGH #entlarvt :freak:
 
Ernsthaft? 😂😂😂

Das ist aus den dargelegten Gründen eben kein Beweis, dass sich im Test-Szenario etwas negativ ändert... 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Kodak und Sophisto
Achim_Anders schrieb:
Das ist aus den dargelegten Gründen eben kein Beweis, dass sich im Test-Szenario etwas negativ ändert... 🤷‍♂️
Und was mehr als die Tatsache, dass der 3900 die 2080S und 2080Ti bereits in den GPU Tests teilweise limitiert, brauchst du noch?

Egal was PCIe 3.0 vs 4.0 für einen Unterschied macht, das ist komplett irrelevant, wenn die GPU sowieso nicht voll ausgelastet wird.

Achim_Anders schrieb:
Handfeste Kritik, wäre es zu zeigen (!!!), nicht zu behaupten (!!!), dass die Relation zwischen den kommenden Karten, sich wegen der AMD CPU ändert.
Wie gesagt, der aktuelle Parcour zeigt das bereits für die aktuellen Karten, oder meinst du die 15% zwischen 2080S und 2080Ti würden mit einer 10% schnelleren CPU bei 15% bleiben?
 
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, incurable und eine weitere Person
fox40phil schrieb:
Ich hoffe es kommen noch separate realitätsnähere Tests! Bei manchen games kriegt wie gesagt nicht mal die 2080ti auf 1920x1080 die 60FPS hin.... das ist doch total bitter für alle anderen User :D ?
Ein Umschalten zwischen MAXED und Mittel fände ich perfekt. Aber ja wäre doppelt so viel Arbeit :/...

Die Gamestar (bitte jetzt nicht lachen) macht es in meinen Augen genau richtig. Da werden die Spiele auf FullHD und hoch getestet.
Zufälligerweise genau so wie ich meistens Spiele^^. Da ist dann mal ein praxisorientierter Vergleich möglich!^^
Also zu meiner Brotkiste.

Aber das nur am Rande. Hat nichts mit dem Artikel zu tun.
 
  • Gefällt mir
Reaktionen: fox40phil
@incurable du machst dich gerade lächerlich. Bzw. Zeigst, dass du keine Ahnung davon hast, wie man argumentativ gerechtfertigte Kritik formuliert. Anyway, nicht mein Thema. Versuch es mal mit dem Versuch einer Begründung.

@Taxxor ist dieses Limit relevant für den hier vorliegenden Testparcour? Nur darum geht es ja.

Wenn die 2080ti in fullhd auf lowdetails limitiert wird, ist das irrelevant.
Wenn die 2080ti in csgo in 4k limitiert wird, ist das auch irrelevant für den neuen Parcours.

Es zählt nur, dass während dieser Testreihe die Auslastung aller GPU's immer bei 95-100% liegt. Falls das nicht der Fall sein sollte, müsste der Tester darauf hinweisen. Und dann wäre unter Umständen eine Alternative zu suchen...

Weißt du, wann wo wie bei Wolfgangs Tests aufgetreten ist?
Ich nicht, sind nämlich noch nicht veröffentlicht...
Wenn das aber nicht Auftritt, gibt es aber kein wirkliches Argument gegen die Wahl der CPU.


Ich bin hier aber auch wieder raus, meine Zeit ist mir dafür zu schade. Ehrlicherweise tangiert mich das Thema selbst fast gar nicht. Mich triggert leider nur dieses sinnlose und logisch ungültige gebashe gegenüber Wolfgang und Jan, die sich nämlich sehr wohl, sehr viele Gedanken um alles machen und auch sehr gutes Knowhow in Bezug auf Tests besitzen.

Nicht umsonst ist CB eine der größten deutschen PC Seiten geworden.
Auch wenn ich selbst immer Mal mit einigen Entscheidungen nicht konform gegangen bin, schätze ich die Arbeit hier.
Und da ist es schade, so viel unbegründeten Blödsinn lesen zu müssen.

Konstruktiv ist definitiv ok. Einfach bullshit schreiben aber ganz sicher nicht. Und da kann man dann auch Mal drauf aufmerksam machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, Londo Mollari, Colindo und 6 andere
Achim_Anders schrieb:
Es zählt nur, dass während dieser Testreihe die Auslastung aller GPU's immer bei 95-100% liegt. Falls das nicht der Fall sein sollte, müsste der Tester darauf hinweisen. Und dann wäre unter Umständen eine Alternative zu suchen...

Weißt du, wann wo wie bei Wolfgangs Tests aufgetreten ist?

Ja, genau in diesem neuen Testparcours hier tritt das auf, genau wie im alten auch schon, aber da hatte man halt nichts besseres als einen 9900K, jetzt hätte man es.

Sind die 8% Unterschied zwischen 2080Ti und 2080S in Anno1800 z.b. normal für dich, wenn beide GPUs am Limit arbeiten? Wo es in 1440p bereits 18% sind?
Der Abstand zwischen 2070S und 2080S ist in beiden Fällen der gleiche, also wird nur die 2080Ti hier limitiert und somit auch die 3070, 3080 und 3090.

Oder die 12% in Borderlands 3, wo es in 1440p 20% sind?

Oder die 11% in CoD und SotTR, wo es in 1440p 16% sind?

Daher habe ich ja auch für die Zukunft schon nach den Angaben zum Anteil des GPU Limits gefragt, die CB uns mit der verwendeten Software direkt geben kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, Esenel und 2 andere
3DCenter
Da anscheinend die Testexemplare wenigstens in DE ihren Weg in die Redaktionen schon gefunden haben denke ich mal dass die 3080 schon beide Testsysteme durchlaufen hat, von daher gibt es glaub ich niemanden der das besser beurteilen kann als die Redaktion Punkt Im Normalfall wären ja Montag die Tests rausgegangen, jetzt halt Mittwoch 15:00.
Nvidia verschiebt NDA
 
Esenel schrieb:
Microsoft wird das erst nächstes Jahr den Entwicklern vorstellen.
Danach muss es erst den Weg in Spiele finden und daweil sind ma wahrscheinlich in 2022 bei der nächsten GPU Generation.

Direct Storage wird ja bei der Xbox verwendet und ist Bestandteil von DirectX. Ich glaube nicht, dass die Unterstützung der API auf dem PC, spieleseitig so lange auf sich warten lässt.
 
  • Gefällt mir
Reaktionen: A.Xander
Zurück
Oben