Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

Gandalf2210 schrieb:
sie holt nächstes Jahr massiv auf wenn der Nvidia der vram Mal wieder ausgeht ;)
Wie man ja super an 3080 vs 6800XT sieht. Richtig abgeschlagen ist sie mit ihrem 30% Vorsprung in 1440p RT verglichen mit dem deutlich größeren 31% Vorsprung zu Release der 6800XT^^
Ergänzung ()

DJMadMax schrieb:
Ich stehe aber auf harte Fakten und Zahlen und ich kann mit 74,4 Durchschnitts-FPS in 23 verschiedensten Spielen mit verschiedensten Engines mehr anfangen, als mit "41,3 Prozent einer RTX 4090". Du etwa nicht?
Nein, warum auch? Was sollen mir denn 74,4 FPS über 23 Spiele sagen?
Genau das gleiche wie 41,3%(nicht einer 4090 sondern der in allen Spielsten schnellsten GPU), denn ich kann daraus in beiden Fällen nur die Relation zu den anderen Karten betrachten und nicht sagen "Huh, ich werde also in den meisten Fällen um die 70FPs haben"

Will ich wirklich wissen, wie stark die Karte in den Spielen ist, muss ich mir die einzelnen Spiele anschauen, denn wenn mein Ziel ist >60FPS zu haben, sagen mit 74,4 FPS über 23 Spiele gar nichts, wenn die 5 potenziell für mich interessanten Spiele darin trotzdem unter 60FPS liegen können.

Am Ende hat sie nur über 60 im Schnitt weil eines der 23 Spiele Valorant war, wo sie 600FPS hat^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen und Vitche
DevPandi schrieb:
Da muss ich widersprechen. Auch wenn Cyberpunk 2077 sehr stark auf die RT-Implementierung von NVIDIA optimiert wurde und auch der PathTRacer auf Ada weitgehend optimiert wurde.

Das Hauptproblem - und das hat @Colindo wundervoll in seinen Artikeln hier aufgearbeitet - ist der etwas eigenwillige Ansatz von AMD für RT hier. AMDs Ansatz verlangt von den Entwicklerns wesentlich mehr "Optimierung" und wenn diese nicht erfolgt, hat AMDs Ansatz ein Nachsehen.

Was ist in deinem Beitrag mit "Optimierung" gemeint? Es ist doch nicht die mangelnde Optimierung also Software, warum AMD in Spielen mit viel RT oder PT einbricht, sondern einfach deren deutlich schwächere Umsetzung auf Hardwareebene, die mit vielen Rays, Bounces oder gar mehreren RT Features gleichzeitig nicht zurecht kommt.
 
  • Gefällt mir
Reaktionen: Innocience
Quidproquo77 schrieb:
Es ist doch nicht die mangelnde Optimierung also Software, warum AMD in Spielen mit viel RT oder PT einbricht, sondern einfach deren deutlich schwächere Umsetzung auf Hardwareebene
Kann man in beide Richtungen sehen, es gibt auch hier Potenzial, RDNA2+3 GPUs in einem Cyberpunk noch ein gutes Stück schneller werden zu lassen, ich meine mich zu erinnern von ~15-20% gelesen zu haben, um die man die RT Performance erhöhen könnte, ohne die Optik zu beeinflussen.
Dass man das tun muss, liegt dann umgekehrt daran, dass die Umsetzung in Hardware so anders ist.

Es ist halt aber auch nicht besonders vorteilhaft, wenn man seine RT Implementierung so umsetzt, dass sie davon abhängig ist, dass Entwickler wesentlich mehr Optimierung speziell dafür betreiben müssen, wenn man gleichzeitig einen Marktanteil von <15% bei dGPUs hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und DevPandi
Taxxor schrieb:
Kann man in beide Richtungen sehen, es gibt auch hier Potenzial,
Wirklich? Es gibt auch unabhängige Benchmarks mit RT oder PT.
Da sieht es auch so aus.
Taxxor schrieb:
RDNA2+3 GPUs in einem Cyberpunk noch ein gutes Stück schneller werden zu lassen,
Mit niedrigeren RT Settings geht das auch in Hogwarts gut, kostet aber auch Optik.
 
Quidproquo77 schrieb:
Mit niedrigeren RT Settings geht das auch in Hogwarts gut.
Nein, nicht mit anpassen der RT Settings sondern mit Anpassungen im Code, wie die Einheiten bei RDNA angesprochen werden. Hier gab es relativ viel Leerlauf in den Shadern, den man mit entsprechender Programmierung nutzen konnte, das könnte @DevPandi sicher genauer erläutern^^
 
Bulletchief schrieb:
RT ist und bleibt die Zukunft. Und das im übrigen schon lange bevor es in der Breite implementiert war..
Dann sollte es irgendwo anders leise die Zukunft sein und mich nicht nerven. Nachdem ich wenn's hochkommt 4 Games hab die RT könnten ist es mir immernoch sehr egal und es sieht nicht so aus als würde sich das in naher Zukunft ändern.

Das ich an RT bald nicht mehr vorbeikomme haben mir manche Leute schon seit der 20xx Serie prophezeit und ich sitz immernoch hier mit kaum Games mit Raytracing.
 
OldNewUser schrieb:
Nachdem ich wenn's hochkommt 4 Games hab die RT könnten ist es mir immernoch sehr egal und es sieht nicht so aus als würde sich das in naher Zukunft ändern.
Wir haben mit Avatar ja nun schon das erste Spiel mit Zwangs-RT wenn man eine RT-fähige GPU besitzt.
Die Verbreitung ist generell seit Turing exponentiell gestiegen und wird es auch weiterhin tun.
2025, wenn wir mitten im Lebenszyklus der RTX5000er sind, werden auch immer mehr Spiele auf Pathtracing setzen und wenn AMD mit RDNA4 auch seine RT Performance aufbohrt, werden spätestens 2-3 Jahre weiter genug Leute genug starke RT Hardware besitzen, dass mehr Spiele dem Beispiel von Avatar folgen werden.
 
Gut zu wissen, wie die GPU Leistungssituation allgemein ausschaut!

Was man dann kauft ist ja nochmal zusätzlich davon abhängig, was man ausgeben will, was man spielt, wie lange man geschätzt die Karte benutzt, was grade kaufbar ist.

Ich hab mir ausnahmsweise eine 399€ XFX RX6700XT 12GB gegönnt, weil meine alte Sapphire RX480 8GB bei meinem 4K Monitor im Daueranschlag lief und absehbar nicht mehr ausreichen würde.
(Ich hab den Samsung 4K LED 60Hz Freesync Monitor neu für 180 Euro bekommen - anstelle für ein paar Hz mehr 500 bis 1000+ Euro zu bezahlen, die mir persönlich gar nichts bringen)

Ich bin total happy mit meiner RX6700XT, trotzdem finde ich sie etwas zu teuer.
330 bis 350 Euro wären noch in meinem Akzeptanzbereich gewesen, fast 400 Euro stressen denn so enorm, das ich das künftig nicht widerholen möchte (vorbehaltlich was Inflation und sonstige Krisen anrichten natürlich - manchmal hat man eben einen Bedarf, aber keine Wahl - weil das Erwerben im richtigen Leben stattfindet und nicht in meiner Wunschvorstellung).

Jetzt kann ich entweder in 4K Nativ oder 4K FSR zocken, was beides besser ausschaut als 1080p oder 1440p und die Karte bleibt trotzdem meist still und relativ kühl, weil mir 60Hz vollkommen reichen - mir sind Texturen, Texturschärfe und Farben, Farbbrillanz wichtig und da bin ich mit meiner Wahl sehr gut bedient.

Da kommen dann die Influencer ins Spiel und wollen einem erzählen, wer man zu sein hat und wer sich dann selbst nicht kennt, oder leicht beeinflußbar ist, der wird influenced zum perfekten "Geldspender":
"The more you buy the more you save!" :D

Anstelle Bannanenware/-technologie zu kaufen, die ganzen Kinderkrankheiten mitzudurchleiden und Geld für Trends aus dem Fenster zu werfen, reicht es einfach sich selbst zu kennen - wenn man weiß. für sich selber, was für ein Kunde man ist, das kauft was zu einem passt, dann kann man tatsächlich enorm an Geld sparen!
 
Taxxor schrieb:
Wir haben mit Avatar ja nun schon das erste Spiel mit Zwangs-RT wenn man eine RT-fähige GPU besitzt.
Ich bin mir nichtmal sicher ob meine aktuelle Proton-Version RT Unterstützt^^ Damit ist mir das egal. Ich hab Avatar nicht und hab auch nicht wirklich vor es mir zu kaufen. Aber abgesehen davon. Wie du schon bemerkt hast braucht das Game keine RT-fähige GPU^^ Damit ist es vermutlich auch den Besitzern nicht-RT-fähiger Karten egal. Zumal kaum von Zwang die Rede sein kann wenn die GPU es nicht können muss^^ Ist eben noch kein Must-Have.
Taxxor schrieb:
Die Verbreitung ist generell seit Turing exponentiell gestiegen und wird es auch weiterhin tun.
Ist bei mir in der Bibliothek bis jetzt nicht angekommen. Wie gesagt es sind ca. 4. Ich hatte RT auf meiner Karte noch nicht 1x an.
Taxxor schrieb:
2025, wenn wir mitten im Lebenszyklus der RTX5000er sind, werden auch immer mehr Spiele auf Pathtracing setzen und wenn AMD mit RDNA4 auch seine RT Performance aufbohrt, werden spätestens 2-3 Jahre weiter genug Leute genug starke RT Hardware besitzen, dass mehr Spiele dem Beispiel von Avatar folgen werden.
Werden wir sehen. Wie gesagt. Haben mir die Leute seit der 20xx Generation gesagt und ich mach das gleiche wie damals. Ich lach drüber und sag das wir es sehen werden wenn es so weit ist. Im Moment ist es mir nicht wichtig und ich sehe keinen Mehrwert damit. Wenn das in 5 Jahren anders ist werde ich's ggf. neu evaluieren ;)
 
  • Gefällt mir
Reaktionen: Three of Nine
Taxxor schrieb:
Es ist halt auch nicht besonders vorteilhaft, wenn man seine RT Implementierung so umsetzt,
Ist es auch nicht. Die Flexibilität von AMDs Ansatz kann Vorteilhaft sein, nur muss man diese Vorteile auch nutzen und das ist mir Hirnschmalz verbunden.

Quidproquo77 schrieb:
Es ist doch nicht die mangelnde Optimierung also Software, warum AMD in Spielen mit viel RT oder PT einbricht, sondern einfach deren deutlich schwächere Umsetzung auf Hardwareebene, die mit vielen Rays, Bounces oder gar mehreren RT Features gleichzeitig nicht zurecht kommt.
Ja und Nein, AMDs Hardware ist „pauschal“ keine schwächere Umsetzung.

AMDs Ansatz ist „flexibler“. Genau da liegt dann auch der Knackpunkt. Diese Flexibilität zu nutzen ist kompliziert und nutzt man sie nicht, geht viel Leistung flöten.

Du kannst bei AMD sehr kontrolliert mit den Strahlen arbeiten und relativ früh Strahlen verwerfen um andere zu verfolgen. Genauso kannst du unsinnige Berechnungen einsparen. Du musst als Entwickler nur wissen, wann du das machst und das ist alles andere als trivial.

Grob ausgedrückt: AMD erwartet von den Entwicklern, dass sie den Strahlen frühst möglich ansehen, dass sie nicht gebraucht werden. Nvidia wiederum geht davon aus, dass du es erst sehr spät merkst.

Das Konzept ist hier der Knackpunkt.
 
  • Gefällt mir
Reaktionen: Volvo480, Millennial_24K, Inxession und 2 andere
keine RTX 3070 ??? 😱
 
Zwirbelkatz schrieb:
Diese Rechnung berücksichtigt min. 3 Kriterien nicht:
  • Restwert der RDNA3. Die löst sich nicht in Luft auf.
  • Potenzielles Ausfallrisiko außerhalb des Garantiezeitraums der Langzeitkarte 4090.
  • Etwaige technische Entwicklung einer RDNA 4, die jedem hier unbekannt sein dürfte.


Manchmal weiß ich nicht, was anstrengender ist. In egal welchem Thema min. 1x über eine zusammenhanglose Lobhudelei über die 4090 zu stolpern; oder die Tatsache, dass selbst deren zweifelsohne exorbitante Leistung im Grundrauschen miserabler AAA-Programmierung flöten geht.
Natürlich gibts da vieles zu berücksichtigen. Eine XTX startet bei 968€ aktuell, mit RDNA 4 Release werden 500€ RDNA 4 "midrange" Karten vermutlich auf XTX Niveau landen, also schätze ich den Restwert von der XTX Karte vllt auf 400€ rum XD. Die günstigste 4090 kostet aktuell 1949€. Je nach dem wann man seine Karte verkauft, kann der Preis natürlich variieren. Auf Kleinanzeigen bekommt man die XTX für ~700€, also die Karten haben jetzt schon massiv an Preis verloren ggü den Releasepreisen, also von 1350€ runter auf fast die Hälfte. Ich denke ich könnte meine Karte aktuell für rund 2000€ loswerden (Aorus Master). Die AMD Karten verlieren einfach massiv an Wert und der Wiederverkaufswert kann richtig in den Keller rutschen, vor allem wenn man nicht zeitig verkauft. Bei Nvidia bekommst du die Teile einfach schneller verkauft und das noch zu saftigen Preisen, also selbst wenn ich 1-2 Monate vor RTX 5000 verkaufen würde, würde ich noch ordentlich was rausholen.

Ausfallrisiko? Mache ich mir auch keinen Kopf drüber, siehe Bild:

Screenshot_9.jpg


Zu Punkt 3: Da erwarte ich echt keine Wunder, aber je nach "vielversprechenden" Leaks, hat man genügend Zeit seine Karte noch zu verkaufen, man muss halt auch mal die Augen etwas offen halten.
Ich glaube einfach nicht, dass RDNA 4 +70% an RT Performance rausholt und selbst wenn, da ist man gerade mal auf 4090 Niveau, da muss also schon deutlich mehr kommen und was Raster angeht, hat die XTX kp rund 35% rum oder so zugelegt ggü einer RDNA 2 6950XT Karte, also wenn die das wiederholen ist man auf rund 4090 Niveau bzw minimal schneller. Meine 6900XT Karte war toll, ich war zufrieden mit der, aber dies rührte vor allem an den im Vgl "schlechten" Ampere Karten und an dem fantastischen MPT (More Power Tool), aber wenn du wüsstest wv Zeit da rein geflossen ist beim Feintuning... Das Gute ist bzw war, dass ich es mag rumzudoktern an PC Hardware. Wir müssen aber ehrlich sein, die 4090 ist einfach brutal überlegen und optimiert sind die einfach krank. AMD hat sich selbst ins Bein geschossen indem sie den Zugang vom MPT gesperrt haben für RDNA 3, sonst hätte ich mir ggf auch diese Karte geholt, aber für mich war dass das KO Kriterium.
 
@Wolfgang kleiner Fehler bei den FullHD Auflösungen

1702930195186.png



Puh... ich bin ganz und gar nicht glücklich mit der Änderung!
Somit gibt es hier keine Trennung mehr zwischen "nativ" und Upscaling... wie die tolle Einstellungsübersicht für die Spiele aufzeigt.
Muss ich leider - nach 15 Jahren, eine weitere Seite suchen, die noch nativ testet und es grafisch gut aufbereitet. Das stört mich seit der Bewerbung neuer GPUs von NV...
Am liebsten will ich in >100% zocken, da es kaum noch gute Kantenglättungen gibt.
Und ich dachte es gäbe jetzt auch DLSS "nativ"? sehe ich in der Auflistung gar nicht.

Mich mach die Änderung etwas traurig. my 2 cents ://
 
  • Gefällt mir
Reaktionen: bad_sign und Ja_Ge
DevPandi schrieb:
Ja und Nein, AMDs Hardware ist „pauschal“ keine schwächere Umsetzung.
Ich habe zu wenig Ahnung um mich dazu im Detail zu äußern, aber es gibt Analysen mit Nsight die zeigen, dass AMD mit ihrer Lösung sehr unflexibel und eingeschränkt ist, während Nvidia schnellere Caches mit besserer hitrate einen viel höheren Schnitttestdurchsatz hat und mehr Compute Durchsatz hat.

AMD hat die intersection test instructions in die Textureinheiten gepackt hat und das Ergebnis wird an die Shader gesendet. Aber alleine das Durchsuchen der Geometrie bzw. die BVH ist anders aufgebaut und dauert viel länger, zudem wird nur mit 4 Nodes gearbeitet, soviel ich weiß.

Hier kann man das nachlesen.
DevPandi schrieb:
AMDs Ansatz ist „flexibler“. Genau da liegt dann auch der Knackpunkt. Diese Flexibilität zu nutzen ist kompliziert und nutzt man sie nicht, geht viel Leistung flöten.
Das halte ich allerdings für falsch oder irreführend, jedenfalls passt es nicht zu dem was ich bisher im Netz dazu gelesen habe.

Unterm Strich heißt das für mich, die AMD Lösung ist massiv schwächer und relativ schnell überfordert, es sei denn die Komplexität der Berechnung ist minimal, wie etwa in FarcCry 6.

To enable this approach, Nvidia likely has more flexible hardware, or is handling a lot more work with the general purpose vector units. Unlike AMD, where nodes can only point to four children, Nvidia does not have fixed size nodes. One node can point to two triangle nodes, while another points to six. A single triangle node can contain hundreds of triangles.
DevPandi schrieb:
Grob ausgedrückt: AMD erwartet von den Entwicklern, dass sie den Strahlen frühst möglich ansehen, dass sie nicht gebraucht werden.
Das passt aber nicht zu "flexibel".
Damit AMD das effizient hinbekommt muss man aber von Haus aus weniger Strahlen und Bounces benutzen um die Grafikpipeline nicht "zu verstopfen" und die Caches nicht zu überfordern.

...then Nvidia can get to the bottom of their acceleration structure in just three hops. That makes Nvidia’s implementation far less sensitive to cache and memory latency.
DevPandi schrieb:
Nvidia wiederum geht davon aus, dass du es erst sehr spät merkst.
Ich glaube nicht, dass diese Erklärung so wirklich Sinn macht, aber ich lasse mich gerne eines Besseren belehren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience und DevPandi
Ich bin einmal mehr irritiert, dass die 7800xt bei Rytracing in Hogwarts Legacy in Tests so schwach abscheidet.
Ich spiele in UWQHD und komme auf deutlich mehr FPS als hier und auch bei PCGH im Test gezeigt wird.

Ich kann es nicht nachvollziehen, meine Karte ist zwar leicht übertaktet, aber das kann nicht der Grund sein.

Jemand eine Idee, wie der Unterschied Zustande kommen kann?
 
DJMadMax schrieb:
Nein, das ist nicht wahr. Lies meinen Text bitte genau. Die FPS werden in dieser zusammengefassten Gesamtübersicht zu ...
Stimme dir zu. Ich glaube ich hab mich mit den absoluten fps-Tabellen der einzelnen Spiele und der Performance-Tabelle verwechselt.
Danke für's aufklären.
 
  • Gefällt mir
Reaktionen: DJMadMax
Endlich auch mal ältere Karten mit den neuen im direkten Vergleich. Bisher war es immer schwierig abzuschätzen, wie viel das Upgrade wirklich bringt. Danke!
 
Kann der neue Testparcours jetzt auch Linux? Hab diese Artikel bisher immer ganz ausgelassen, weil sie kaum Relevanz bei mir haben.
 
  • Gefällt mir
Reaktionen: TheHille
Die 6800 XT identisch mit der 7800 XT. Auch in Raytracing nur geringfügige Unterschiede. Bei den aktuellen Preisen beider Karten muss man eher zur 6800 XT raten. Enttäuschend von AMD.
 
Zurück
Oben