Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

DJMadMax schrieb:
Ich bin bei der Tabelle lediglich drübergestolpert, weil ja oben noch von "FPS" gesprochen wird, unten jedoch kleingedruckt "Angaben in Prozent" steht. :)
Es ist ein hinweis, dass FPS-Werte miteinander verglichen werden und prozentual ins Verhältnis gesetzt werden.

In ähnlichen Tabellen werden manchmal ja auch Temperaturwerte, Leistungsaufnahme, Lautstärke usw. verglichen... mal mit absoluten Werten und mal im prozentualen Verhältnis.
Ergänzung ()

Taxxor schrieb:
Man müsste eine prägnante Formulierung dafür finden, was in dem Tab drin ist, nämlich der "Prozentuale Unterschied der GPUs basierend auf den AVF-FPS Messungen"
Da braucht man keine prägnante Formulierung. Ein Prozentzeichen hinter den Werten würde das klarstellen.

Oder bei den Tabs:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Taxxor schrieb:
Wie man ja super an 3080 vs 6800XT sieht. Richtig abgeschlagen ist sie mit ihrem 30% Vorsprung in 1440p RT verglichen mit dem deutlich größeren 31% Vorsprung zu Release der 6800XT^^
Geduld Geduld.
Das ist ein Marathon, kein Sprint
 
Gandalf2210 schrieb:
Das ist ein Marathon, kein Sprint
Du sagtest doch sie holt schon nächstes Jahr auf^^
Die beiden genannten Karten sind mittlerweile über 3 Jahre alt, bevor es hier zu VRAM Problemen kommt, sind sie längst ersetzt, weil sie generell beide zu langsam sind, die 6800XT da noch früher als die 3080, wenn mehr und mehr RT kommt.
 
Mein Nachbar hat die 3080. Bei RT in Alan Wake 2 geht die komplett ein. Und das in FullHd. Mit DLSS ist er nicht so recht zufrieden,er meinte die Grafik sieht dann total scheiße aus. Auch wenn das RT aus ist.
Könnte mir auch vorstellen das der Vram voll läuft.
Zumindest ist es unspielbar mit seinem Setting was er fahren will.
 
Zuletzt bearbeitet:
Ghostfacekalle schrieb:
Mein Nachbar hat die 3080. Bei RT in Alan Wake 2 geht die komplett ein. Und das in FullHd.
Liegt aber nicht am VRAM, sondern weil sie generell nicht schnell genug ist^^
Im CB Test hat sie mit RT immerhin 42FPS in 1440p + DLSS Balanced. Die 6800XT kommt gerade auf 30 und auch die 7900XT mit doppeltem VRAM kommt nicht an ihr vorbei
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Er hat um die 20 FPS mit seinem Setting. Darunter meinte er ist es Scheiße. Ob er DLSS meint oder RT low ...keine Ahnung
 
Ghostfacekalle schrieb:
Er hat um die 20 FPS mit seinem Setting.
Naja wenn er kein RT nutzen würde , hätte er mit ansonsten Ultra Settings auch >60FPS in 1080p.

Für RT ist halt DLSS oder FSR Pflicht
 
Auf jedenfall.Wundert mich aber gerade das die 7900xtx so zurück liegt. Die sollte mit der RT Leistung auf jedenfall gleichauf zur 3080 liegen. Vielleicht patchen die AMDs sich mit der Zeit noch hoch.
 
Quidproquo77 schrieb:
Ich dachte die Grafiktreiber von AMD und Nvidia nutzen jeweils ihre eigene Methode.
Sie nutzen eigene BVH-Modelle mit ihren Vor- und Nachteilen.

Nvidias Ansatz ist "gröber", fasst dafür sehr viel mehr Dreiecke in einem Knoten zusammen. Nvidia muss also viele Tests pro Knoten machen.

AMDs Ansatz ist feiner granuliert, das bedeutet weniger Tests pro Knoten, dafür viele durchlaufende Knoten. AMDs Ansatz zeigt genau dann schwächen, wenn du viele Strahlen hast, die in unterschiedliche Richtungen im Baum laufen. Entsprechend hat AMD ja bei RDNA 3 bereits angefangen - ähnlich wie NVIDIA mit "SER" und auch das, was Intel bei Alchemist macht - die Strahlen zu sortieren, damit man möglichst viele zusammen fasst, die in die gleiche Richtung laufen.

Und genau hier liegt der Knackpunkt: AMDs Ansatz ist darauf ausgelegt, dass du möglichst früh erkennst, dass ein Strahl ins leere läuft, damit du ihn abbrechen kannst, damit vermeidest du anschließend weitere Sprünge im Baum. Machst du das nicht, dann rennst du teilweise wirklich in die Untiefen.

Auch hier hat AMD bereits angesetz - zeigte ich dir ja als Folie - das man die Prüfungen im Baum "reduziert" um schnell raus zu kommen. Das ändert aber nichts daran, dass du eben aus dem knoten raus musst und in den nächsten.

Und genau das "kostete" bei AMD Leistung, besonders wenn du es nicht ordentlich sortierst.

Quidproquo77 schrieb:
Ja, da sieht es besser aus, weil die Radeons deutlich weniger Berechnungen pro Frame durch ihre Grafikpipeline jagen, wenn ich das richtig verstehe.
Ja und Nein, in Metro Exodus passiert genau das, was ich auch versuche zu beschreiben - und Metro Exodus zeigt dabei auch sehr gut, wie "schlecht" das gleichzeitig auch aussehen kann am Ende.

In Metro Exodus werden die Strahlen nach einer bestimmten Zeit nicht mehr weiter verfolgt und abgebrochen, wenn man zu keinem Ergebnis kommt. Man fängt also mit "vielen" Berechnungen an, und sortiert die Strahlen nach einer bestimmten Anzahl an Sprüngen aus.

Das hat aber dann einen unschönen Effekt, der bei Metro Exodus dazu führt, dass bestimmte RT-Artefakte sehr stark vorhanden sind und selbst durch einen Denoiser nicht wirklich abgefangen werden können.

Mir ist das massiv bei den Reflexionen aufgefallen, die massiv mit Artefakten zu kämpfen haben.

Das hat halt alles Vor- und Nachteile. ;)
 
  • Gefällt mir
Reaktionen: danyundsahne, Millennial_24K, Quidproquo77 und eine weitere Person
DevPandi schrieb:
Mir ist das massiv bei den Reflexionen aufgefallen, die massiv mit Artefakten zu kämpfen haben.
Ok danke für die Ausführungen. Ja das Krieseln ist mir im DF Review audgefallen.Liegt es in Metro also unter anderem nicht auch?an der Methode die Berechnungen für den weiteren bounce erst mit dem nächsten Frame zu liefern?

Das müsste eigentlich sehr viel Rechenleistung zusätzlich einsparen.
 
TigerherzLXXXVI schrieb:
Darüber hinaus ist DLSS für manche Grafikfehler deutlich anfälliger als FSR. Nvidias Technologie ist also nicht frei von Fehlern oder Nachteilen...
Oh ja, in CP2077 gehts mir auf den Senkel das die Kappe von V ab und zu da ist und ab und annnicht 😂 nehm ich aber in Kauf da Path Tracing sonst nicht machbar wäre.

Bei dem Rest gebe ich dir recht. Man darf auf keinen Fall NVIDIA zu sehr auf den Leim gehen. Sonst wird PC spielen bald für den Otto Normalo nicht mehr bezahlbar sein bei einem echten Monopol.
 
  • Gefällt mir
Reaktionen: Wanderwisser und Millennial_24K
Fighter1993 schrieb:
Oh ja, in CP2077 gehts mir auf den Senkel das die Kappe von V ab und zu da ist und ab und annnicht 😂 nehm ich aber in Kauf da Path Tracing sonst nicht machbar wäre.
Freut mich sehr, das mal von einem Geforce-Besitzer im CB-Forum zu hören. Die meisten hier dulden keinerlei legitime Kritik an DLSS und Co. Für sie ist Nvidia absolut perfekt...

Edit:
Dabei habe ich grundsätzlich überhaupt nichts gegen Fans irgendeiner Marke oder Firma. Wer glaubt, so ein Verhalten sei albern und man sollte stets unabhängig von einem bestimmten Hersteller das bessere Produkt kaufen, der liegt meiner Ansicht nach daneben. Für mich gehört es zum Mensch sein dazu, nicht immer nur zu 100% rationale Entscheidungen treffen zu wollen oder zu können. Man kann sich durchaus mit einer bestimmten Marke persönlich identifizieren. Ich selber bin beispielsweise ein großer Fan von Team Rot. Wer hätte es gedacht? Dennoch versuche ich so objektiv wie möglich auf die Hardware von AMD, Nvidia und Intel zu schauen. Es geht mir stets darum SACHLICHE Argumente für oder gegen ein beliebiges Technikprodukt vorzubringen. Also im Geiste eine klassische Liste mit PRO und CONTRA zu erstellen. Genau diese korrekte Einstellung fehlt aber einigen Leuten hier. Daher ist eine vernünftige Diskussion mit ihnen ausgeschlossen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Obvision, Wanderwisser, danyundsahne und 3 andere
TigerherzLXXXVI schrieb:
Die meisten hier dulden keinerlei legitime Kritik an DLSS und Co. Für sie ist Nvidia absolut perfekt...
Yeah, noch mehr Öl für das bescheuerte Lagerkampf-Feuer. Lass doch sowas einfach sein.
 
  • Gefällt mir
Reaktionen: Taxxor, DaHell63, Quidproquo77 und eine weitere Person
Ghostfacekalle schrieb:
Auf jedenfall.Wundert mich aber gerade das die 7900xtx so zurück liegt. Die sollte mit der RT Leistung auf jedenfall gleichauf zur 3080 liegen. Vielleicht patchen die AMDs sich mit der Zeit noch hoch.
Und mit Path-Tracing liegt sie in Full HD sogar hinter einer RTX 4060 8GB... Ich denke das ist eine klare Sache. Das Spiel wurde zu 0% für Radeons optimiert. Anders kann man sich dieses Ergebnis trotz AMDs schwächerer RT-Leistung im Allgemeinen nicht erklären. Aber das Spiel schaut ja auch ohne Raytracing sehr ansprechend aus.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Freut mich sehr, das mal von einem Geforce-Besitzer im CB-Forum zu hören. Die meisten hier dulden keinerlei legitime Kritik an DLSS und Co. Für sie ist Nvidia absolut perfekt...
Wieder ein reines Wahrnehmungsproblem deinerseits.
Ich wette bei fast allen Usern, die du hier nennen würdest, lassen sich Posts finden in denen Probleme von DLSS erwähnt werden, die ignorierst du nur um das Narrativ aufrecht zu erhalten dass ja alle Fanboys sind.

TigerherzLXXXVI schrieb:
Dennoch versuche ich so objektiv wie möglich auf die Hardware von AMD, Nvidia und Intel zu schauen. Es geht mir stets darum SACHLICHE Argumente für oder gegen ein beliebiges Technikprodukt vorzubringen
Das erwähnst du zwar sehr oft, deine Posts zeigen aber idR nichts davon, denn meist baust du dir einen Strohmann vom von Nvidia Fanboys überfluteten Forum auf, denen du Kontra geben musst und immer wieder AMD als die rational bessere Wahl hinzustellen, die jeder tätigen müsste wenn er etwas nachdenkt.
 
  • Gefällt mir
Reaktionen: Cohen, Quidproquo77, Grimba und eine weitere Person
Interpretiere das anders...
Habe eher einen objektiven Eindruck vom Geschriebenen gewonnen, welcher weder rot noch grün hervorhebt. Zumindest was das Technische betrifft.
Ich meine, beide Hersteller (bald hoffentlich auch mehr von Intel) haben ab und an jeweils innovative Techniken und Funktionen.
Das viele eine gewisse Vorliebe haben, ist ja vollkommen normal, wobei auch die sich hin und wieder ändert :)
 
Taxxor schrieb:
Wieder ein reines Wahrnehmungsproblem deinerseits.
Ich wette bei fast allen Usern, die du hier nennen würdest, lassen sich Posts finden in denen Probleme von DLSS erwähnt werden, die ignorierst du nur um das Narrativ aufrecht zu erhalten dass ja alle Fanboys sind.
Ich kenne aber nicht sämtliche Posts von jedem User hier. Auch nicht von jenen Leuten, die bei unserer gemeinsamen Diskussion stets gereizt auf Nvidia-Kritik reagieren. Wenn sie eine vernünftige objektive Haltung zu den Themen hätten, würde ich niemals leichtfertig den Begriff Nvidia-Jünger aussprechen. Wenn ich so etwas tue, dann passiert das erst nach einer langen (und sinnlosen) Diskussion.
 
Zuletzt bearbeitet:
Artikel-Update: Wie angekündigt hat ComputerBase Benchmarks der Radeon RX 5700 XT und der GeForce RTX 2080 Ti mit der Auflösung 1.920 × 1.080 dem Artikel hinzugefügt. Während die Nvidia-Grafikkarte sämtliche Testreihen bewältigt, fehlen bei dem Produkt von AMD aufgrund nicht vorhandener Fähigkeiten die Hardware-Raytracing-Tests.

In den Testreihen hat sich dann gezeigt, dass die Radeon RX 5700 XT im Durchschnitt 10 Prozent hinter der Radeon RX 6650 XT zurück liegt und damit vergleichbar schnell wie die GeForce RTX 3060 ist. Die GeForce RTX 2080 Ti erreicht in Full HD dagegen das Leistungsniveau einer GeForce RTX 4060 Ti, in Raytracing-Spielen ist das Turing-Modell gar 10 Prozent schneller – hier macht sich der 11 GB große Speicher positiv bemerkbar, da die 8 GB auf der RTX 4060 Ti nicht immer ausreichend sind.
 
  • Gefällt mir
Reaktionen: Blaze1987, .fF, Beyazid und 12 andere
Die GeForce RTX 2080 Ti erreicht in Full HD dagegen das Leistungsniveau einer GeForce RTX 4060 Ti, in Raytracing-Spielen ist das Turing-Modell gar 10 Prozent schneller – hier macht sich der 11 GB große Speicher positiv bemerkbar, da die 8 GB auf der RTX 4060 Ti nicht immer ausreichen.
Und genau deshalb habe ich mir eine gebrauchte RTX 2080 Ti geholt. Ich wünsche den Eigentümern von RTX 3070 und RTX 4060 Ti (8 GiB) viel Spaß auf dem Gebrauchtmarkt - obwohl, jeden Tag steht eh mindestens ein Dummer auf.
Wäre die RTX 3070 damals mit 16 GiB auf den Markt gekommen, hätte ich evtl. das Hirn ausgeschaltet und trotz des unverschämten Preises gekauft (wer jetzt argumentiert, dass die 3070 dann mehr Speicher als die 3080 gehabt hätte: letztere hätte genauso mit 20 GiB auf den Markt kommen sollen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErichH. und ro///M3o
Zurück
Oben