Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Die Diskussion über Vollbestückung oder nicht ist ziemlich sinnfrei. Wie Adi Preißler immer sagte „Grau is' im Leben alle Theorie – aber entscheidend is' auf’m Platz.“ Und der Platz ist hier im Testlabor. Dort läuft es, also ist alles gut.
Übrigens, bei mir läuft es auch mit Zen1. (4x8GB, 3200 MHz)
 
@jk1895 was ist da ausgelutscht? Es ist eine Tatsache.
 
Wolfgang schrieb:
Mhm. Wenn etwas Zeit ist, muss ich mir das dann wohl nochmal angucken.
Wär schon sinnvoll. Bei mir hat übrigens auf einem Laptop mal ein brandneues Win10 im Edge mit Vega 8 bei Youtube geruckelt. Kann also am Browser liegen.

Zum Glück hast du bis Montag 15:00 nicht viel vor :daumen:
 
S.Kara schrieb:
Und was will man sehen wenn man sich einen Benchmark zu einem Spiel ansieht? Die Rohleistung oder die Leistung in dem Spiel?

Generell will man in einem Grafikkartenbenchmark natürlich die Leistung der getesteten Grafikkarten wissen und nicht wie gut ein Spiel (Engine) damit läuft. Deswegen sollten solche Parcours auch einen repräsentativen, verschiedene Engines umfassenden Querschnitt abbilden.

Ich verstehe deine angestrebte Darstellungsweise durchaus. Aber was wird damit gewonnen? Damit gezeigt wird, dass mit DLSS Nvidia IMMER schneller ist als AMD und selbst eine 3050 mehr FPS zaubern kann als BigNavi? Was passiert dann in Spielen, die kein DLSS unterstützen. Das sollten ja alle ohne TAA sein.

DLSS ist eine coole Technik und wenn einem der FPS-Gewinn sinnvoll erscheint (oder der Qualitätsgewinn der besseren Kantenglättung) dann kann man das ja aktivieren und sich über ein noch flüssigeres Spielerlebnis freuen. Aber am Ende als eines der deutschen Tech-Leitmedien, diese dann doch etwas tendenziöse Testmethodik zu etablieren halte ich für gefährlich.

.Sentinel. schrieb:
DLSS gehört zur Rohleistung der Karte, weil dafür eine zusätzlich in Hardware gegossene Einheit vorhanden ist, die das berechnet.

und ist trotzdem ein - im übrigen auch proprietäres - Feature, welches nicht allen unter Herstellern und auch nicht von allen Spielen unterstützt wird.
Wie war dein Standpunkt zu PhysiX? Sollte auch immer damit gebencht werden obwohl es bei ATI nur Legacy lief und die FPS stark einseitig zu Gunsten eines Herstellers verzerrt hat?

Der Begriff der Rohleistung ist hierbei (auch von mir) nur äußerst schwammig gewählt. Die Leistung einer Turing/ Ampere GPU wird ja nicht magisch durch DLSS erhöht. Man schafft es eben "nur" durch Verringerung der Auflösung und geschicktes sampling die Ausbeute (FPS) und damit ja die Effizienz der vorhandenen Rohleistung zu erhöhen.
 
  • Gefällt mir
Reaktionen: Benji21 und KlaraElfer
Maxxx800 schrieb:
@jk1895 was ist da ausgelutscht? Es ist eine Tatsache.
Weil es bis jetzt immer so war bei den Diskussionen. Sobald einem die Argumente ausgehen wird gesagt, dass voll viele am Rendern sind, hoch komplexe und komplizierte Berechnung daheim anstellen. Darum ist AMD immer die bessere Wahl, auch wenn man nur alle 10 Jahre mal etwas Größeres packen will und es dann statt 10 Minuten eben nur 5 Minuten dauert. So auch jetzt, unbedingt auf PCIe Gen. 4 pochen, weil Gen. 3 viel zu langsam ist für die Vielen, die nicht nur zocken.
Darum bin ich der Ansicht, dass ein bis zum Anschlag übertaktetes 10900k-System meine, weil sinnvollere, Wahl wäre für Grafikkarten-Benchmarks. Die pauschale Begründung, in Zukunft könnte es Vorteile bringen, ist für mich zu schwach. Wenn es soweit ist, kann man das auch später immer noch ändern und vermutlich gibt es bis dahin aber auch schon PCIe v4 bei Intel.

Um es klar zustellen: Ich HASSE Intel, jawohl! Und ich HASSE AMD! Ganz genau! Und mehr als beides zusammen HASSE ich Nvidia! Wahnsinn, was?
Trotzdem habe ich eine Intel CPU und eine Nvidia GPU und mir es egal ob ich irgendwann wieder ein AMD-System habe.
 
jk1895 schrieb:
...So auch jetzt, unbedingt auf PCIe Gen. 4 pochen, weil Gen. 3 viel zu langsam ist für die Vielen, die nicht nur zocken....

Es stimmt halt einfach nicht, dass viele nur aufgrund fadenscheiniger Gründe auf PCIe Gen4 pochen um irgendwas zu packen etc....aber ne lustige Nebelkerze muss ich sagen. Um das klarzustellen: Es ist bekannt dass der 10900K in Spielen im Gesamtschnitt ein paar Prozent schneller ist als der 3900XT. Wer sich in diesen Tagen in einen warmen Intel Wohlfühlschauer stellen will, kann sich dazu dutzende 1080p Tests durchlesen die alle korrekt und zum Testzeitpunkt auch legitim waren. Es gibt demzufolge Gründe den 10900K zu nehmen aber warum zur Hölle sollte man auf PCIe Gen 4 verzichten wenn absehbar ist das schon kleinere Karten wie die 5700XT in gewissen Szenarien profitieren können und weitere Vorteile noch nicht einmal getestet werden konnten aber unbedingt werden sollten (RTX IO). Die vermutete Rohleistung der neuen Karten berechtigt zu diesem Testsystem wie ich finde und zwar nicht erst wenn Intel auch mal in die Puschen kommt bei dem Thema sondern heute und wenn entsprechende Karten released werden. Ich denke CB und andere Redaktionen haben von Nvidia schon gesteckt bekommen wie sie die 3000er Grafikarten im rechten Licht darstehen lassen können. Davon mal abgesehen kommt in einigen Monaten auch noch ZEN 3 und dann führen wir die Diskussion hoffentlich eh nicht mehr, warum kein Intel K mehr drin ist. Auch Intel wird irgendwann wieder seinen Weg ins Testsystem finden, da bin ich sicher, aber deswegen muss man nicht kollektiv den Abgesang auf CBs Testfähigkeiten singen, nur weil Intel zu recht so lange drin war.
 
Zuletzt bearbeitet:
Finde viele Änderungen gut und wichtig, aber wieso um Himmels Willen ins bf5 aus dem Test Parcours geflogen??
 
gunmarine schrieb:
Hauptsache AMDbase ist glücklich, dass 1 Intel wieder weniger in einem System rumgeiert. Für einen objektiven Test zur Leistungsfähigkeit der Karten muss einfach ein 9900 K(S)/10900K mit wenigstens 3200er RAM als Basis genommen werden. Und wegen PCI-E 4.0 könnt ihr immer noch seperat testen wie groß der Unterschied tatsächlich ist.
Objektiv getestet, würde man mit PCIE 4.0 testen, da kommender, neuer Standard. Stellen wir uns mal eine andere Situation vor:

1) Intel ist 15% langsamer, bietet aber PCIE 4.0 an. Neue Grakas kommen ebenfalls, mit zukünftigen standard PCIE 4.0 raus.
2) AMD bietet nur PCIE 3.0 an, ist aber 15% schneller.
Daraufhin, weil er schneller ist, entscheidet sich CB für PCIE 3.0 und für AMD.

Was hier dann los wäre, kannst du dir ausmalen? Du wärst garantiert in den ersten Reihen derer, die hier abgehen würden, dass es nicht sein kann, dass kommende Zukunft, mit veralteter Technologie getestet wird!
PCIE 4.0 ist die Zukunft, also muss es mit entsprechender HW getestet werden. Denn alles andere, ist ziemlich Sinnlos.
Die Foren hier, würden garantiert glühen.

Und da würde ich euch zu 100% zustimmen. Nur ist die Situation mit AMD und Intel gerade umgekehrt, und ihr besteht plötzlich hartnäcking darauf, Tests zukunftiger HW, mit alten standards durchzuführen?
Rückgratlösigkeit pur.

Ein Test mit PCIE 3 gegen PCIE 4 um zu vergleichen, würde ich auch gerne sehen. Nur wäre das objektiv gesehen, ein separater Test mit Intel. Nicht mit AMD.

Ist schon blöd, wenn Menschen darauf bestehen objektiv zu sein, die eine rosa rote Fanboy-Brille aufsitzen haben.
 
  • Gefällt mir
Reaktionen: bad_sign, Celinna, CableGuy82 und 3 andere
gunmarine schrieb:
Hauptsache AMDbase ist glücklich,
Ist der Vertrag mit Intel und Nvidia ausgelaufen ? :mussweg:

jk1895 schrieb:
Darum bin ich der Ansicht, dass ein bis zum Anschlag übertaktetes 10900k-System meine, weil sinnvollere, Wahl wäre für Grafikkarten-Benchmarks.
Ein GPU Benchmark sollte man möglichst fern eines CPU Limits durchführen da sind die paar Prozent Differenz beider Platformen doch ziemlich egal. Ohnehin sind die absolut erzielten Frames peng, der relative vergleich ist das interessante.
 
  • Gefällt mir
Reaktionen: CableGuy82
  • Gefällt mir
Reaktionen: CableGuy82 und Benji21
Mein Gott, man kann es auch übertreiben. PCGH nutzt neuerdings auch AM4 mit 3900X als Testplattform, US-Reviewer steigen (auch) wegen PCIe 4.0 ebenfalls auf AM4 um. Und man kann in 1-2 Monaten einfach auf schnellere CPUs wechseln mit allen Vorteilen.

Weder muss man hier AMDBase brüllen, noch eine Verschwörung wittern. Aber klar, die gesamte Testszene von Reviewern und Redaktionen hat sich einzig gegen Intel verschworen.
 
  • Gefällt mir
Reaktionen: stevefrogs, Celinna, CableGuy82 und eine weitere Person
KlaraElfer schrieb:
Der 3900x OC dürfte aber die CPU aus dem Testsetup sein, wo auch der RAM optimiert ist.
Der OC 10900K läuft mit 2933 oder?

Es wurde bei PCGH kein 10900K im OC betrieben.
Nur der 9900K aus dem alten GPU Testrig mit dem RAM auf 3800 CL16. Also nur halbgar optimiert und die Speerspitze (10900K) fehlend ;-)

Stellt man den 10900K OC gegen das PCGH 3900X GPU Test Rig ist man bei BF V - was das beste Spiel für den Zen2 ist - gegenüber, ist der 10900K OC immer noch 16% vorne.
In den anderen Spielen natürlich noch mehr ;-)


Ich kann auch mal ein CPU intensives Spiel hier wählen und den 10900K in 1440p als Gegenstück testen ;-)
 
  • Gefällt mir
Reaktionen: KlaraElfer
Glyphus schrieb:
DLSS ist eine coole Technik .. Aber am Ende als eines der deutschen Tech-Leitmedien, diese dann doch etwas tendenziöse Testmethodik zu etablieren halte ich für gefährlich.
Eine coole Technik in der Testmethodik zu etablieren ist also gefährlich?
Du weisst schon, dass sich solch coole Techniken oftmals auch durchsetzen?

Wie war dein Standpunkt zu PhysiX? Sollte auch immer damit gebencht werden obwohl es bei ATI nur Legacy lief und die FPS stark einseitig zu Gunsten eines Herstellers verzerrt hat?
Technologien kommen und gehen.... Manche etablieren sich (Software PhysX) und manche überholen sich aufgrund der Hardwareentwicklung zu unified shadern selbst (Hardware Physx).

Der Begriff der Rohleistung ist hierbei (auch von mir) nur äußerst schwammig gewählt. Die Leistung einer Turing/ Ampere GPU wird ja nicht magisch durch DLSS erhöht.
Wird sie auch nicht- Sondern durch ein neues Featureset auf einer dedizierten Einheit, die mal eben eine zusätzliche Rechen- Peak- Performance von 312 TFLOPs FP16 und Teilmengen zur Verfügung stellt.

Man schafft es eben "nur" durch Verringerung der Auflösung und geschicktes sampling die Ausbeute (FPS) und damit ja die Effizienz der vorhandenen Rohleistung zu erhöhen.
Aha- Und jetzt? Muss man jetzt dann auch alle Rastereffekte der Grafikkarten deaktivieren, weil sie ja "nur" darauf basieren einfaches und schlechtes Ausgangsmaterial mit "Tricks" in irgendwas präsentables zu verwandeln?

Nach all der Information, die im Netz verfügbar ist, in Sachen Rastertechnik und wie moderne Engines funktionieren, wundert mich dieser "aber das ist Nativ!" -Irrtum, der hier stoisch in Sachen Raster- Technik weitergetragen wird wiklich langsam. Beim Rastern ist nix nativ, deswegen rastert man ja auch und bekommt dazu noch einen Haufen Quantisierungsfehler (z.B. Aliasing) gratis!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Hubbe73 und Jan
Wolfgang schrieb:
Mhm, Trackmania scheint ja richtig beliebt zu sein hier:D
Naja, vielleicht hat das Spiel dann nur einen eher kurzen Auftritt und fliegt bei der nächsten Überarbeitung wieder raus.
War vielleicht etwas harsch geschrieben von mir. Ich habe nichts dagegen auch etwas unbekanntere Titel zu benchen und bei der Anzahl fällt ein einzelner Titel ja auch nicht so ins Gewicht. Trotzdem fällt Trackmania auf weil es wirklich kein weit verbreitetes Spiel ist, die Engine nichts besonderes kann und eben eindeutig auf Nvidia optimiert wurde.
 
jk1895 schrieb:
Ja, ne, ist klar. Ich habe mich schon gewundert wo dieses ausgelutschte "Argument" bleibt. 🤣

Liked: Ich arbeite in 3D Anwendungen.

Dann sieht er mal wie viele wir hier wirklich sind ! :)
 
Colindo schrieb:
Immerhin 13,5% "andere Auflösungen", von denen die meisten UWQHD haben werden. .
Anhang anzeigen 964887

Andere könnte auch die 1200p Variante sein, also 1920x1200p welche wahrscheinlich verbreiteter ist als die UWQHD Variante.
Zudem fehlt noch 31:10 und 4096x2160 von speziellen Produkten. Dual oder Triplemonitorsetups in 1080p, 1440p oder 2160p.
Die 13% teilen sich also alle nicht expliziten genannten unter dem Begriff andere und der Realanteil von UWQHD sinkt weiter auf einen vielleicht für CB unerheblichen Rest, sodass der Mehraufwand nicht lohnt.
 
Zurück
Oben