Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Butterbemme
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.188
Was RT angeht ein schönes Ergebnis bei AMD. 👍 Die meisten Spiele laufen rund ca. auf 3080/90-Niveau, das war vor einem Jahr mit die beste RT-Leistung die man überhaupt kaufen konnte. Heftige RT/PT-Last gibt es nur in einer handvoll Spiele, da leih ich mir mal für einen Monat die 4080 per Geforce NOW und gut is.
Unter einer 4080 ist nvidia für mich einfach inakzeptabel, 900€(!!!) für 12GB-Karten ist eine absolute Frechheit, die sind zum Kaufdatum schon ab und an zu knapp. Not to be dramatic aber es ist einfach ein Schlag ins Gesicht und so fucking dreist. Bei AMD krieg ich 20GB fürs gleiche Geld. Wer keine 1200€ zu verbrennen hat wird bei nvidia einfach verarscht. Und die wissen genau was sie da tun, das ist nichts geringeres als geplante Obsoleszenz. Eine Schande dass sie damit durchkommen.
Unter einer 4080 ist nvidia für mich einfach inakzeptabel, 900€(!!!) für 12GB-Karten ist eine absolute Frechheit, die sind zum Kaufdatum schon ab und an zu knapp. Not to be dramatic aber es ist einfach ein Schlag ins Gesicht und so fucking dreist. Bei AMD krieg ich 20GB fürs gleiche Geld. Wer keine 1200€ zu verbrennen hat wird bei nvidia einfach verarscht. Und die wissen genau was sie da tun, das ist nichts geringeres als geplante Obsoleszenz. Eine Schande dass sie damit durchkommen.
Du tust ja so, als würde Rasterizer AMD alles mit 4k 200fps rennen und wäre "zu viel". Dem ist offensichtlich nicht so, die Rasterizer-Leistung ist angemessen und nach wie vor bei nahezu allen Spielen wichtig. 4k/2k 120fps für einen guten Monitor sind keine Kleinigkeit.Poati schrieb:Naja da gibt es ja bekanntlich verschiedene Meinungen zu, aber das ist für mich das Argument für neue Hardware. Beim Kauf meiner 6800 gabs in der Hinsicht nichts besseres für die Kohle aber ich würde mir niemals eine 7900XTX kaufen. Was soll ich mit so viel Rasterleistung. Der Drops ist allmählich ausgelutscht. Die Entwicklung wird sich langsam aber sicher in Richtung RT und "Tricks" wie Upsampling und Framegeneration bewegen. Alles Dinge, wo AMD hinterher hängt und es gibt ja auch schon Gerüchte, dass AMD sich wieder aus dem Highend Segment zurückziehen wird. Wären alle so begeistert von der altbekannten Rasterizer Grafik in immer höheren Auflösungen, dann würde AMD bestimmt mehr 7900XT(X) verkaufen. Dem ist aber nicht so. RDNA2 ging noch gut weg und war Konkurrenzfähig. Aktuell kann davon nicht die Rede sein.
Zuletzt bearbeitet:
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Ist keine 1080p-Karte, das spielt der 4070 Ti in die Hände da die XTX in 1080p ersäuft. In 4K ist sie knapp schneller - dennoch muss AMD weiter an RT arbeiten, es stark verbessern.Fighter1993 schrieb:Da fällt die 7900XTX doch immer weiter zurück in RT jetzt ist sie schon bei der 4070Ti angekommen.
- Registriert
- Juli 2004
- Beiträge
- 46
Könnt ihr noch die Daten des alten Parcours als ausklappbare Zusatzoption zum Vergleich einbauen? Wenn es innerhalb eines Charts nicht geht (so wie zB weitere Ergebnisse von meist älteren Produkten bei anderen Tests), dann zumindest als extra Chart. Ihr habt zwar im Text ganz gut beschrieben, wo die Unterschiede liegen, aber visuell ist das oft eindrücklicher.
Poati
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.593
Ja gut, war etwas überspitzt ausgedrückt, da haste recht. Aber wie gesagt, auch AMD weiß, dass sie mit den aktuellen Highend Karten keinen Blumentopf gewinnen und das liegt nicht allein daran, dass Nvidia generell deutlich mehr gekauft wird einfach nur weils Nvidia ist. RDNA2 hat sich besser verkauft und auch Midrange, wo RT weniger ein Thema ist, verkauft sich in Form der 7800XT und 6800XT viel besser.Butterbemme schrieb:Du tust ja so, als würde Rasterizer AMD alles mit 4k 200fps rennen und wäre "zu viel"
Ich habe aber übrigens auch ganz speziell für mich gesprochen. Ich würde keine 7900XTX kaufen. Wer sich eine für 4k und halbwegs hohe FPS holt, den kann ich natürlich verstehen. Wäre aber eben nicht meine Wahl. Auch eine 7900XT ist für Rasterizer in 4k ne gute Karte.
Zuletzt bearbeitet:
OTC-Trader
Lieutenant
- Registriert
- Dez. 2010
- Beiträge
- 841
Schade das nur die neuesten dabei sind, wo doch die Vergangenheit gezeigt hat, das knapp 50% der Nutzer hier bis zu 2 Generationen "zurück" liegen, ala gtx 2070 usw.
Duvar
Lt. Commander
- Registriert
- Juli 2015
- Beiträge
- 1.037
2367MHz AVG Taktraten bei der XTX? Scheint mir etwas wenig zu sein, auch verglichen mit eurem Test zu Release:
https://www.computerbase.de/2022-12...hen Taktraten unter Last,Takt 2,3 GHz beträgt.
Dort waren es rund 200MHz mehr. Irgendwie sieht die XTX etwas lasch aus in dem aktuellen Test oder ist der nun so hart, dass die Karte (MBA Version) so stark ins PL gerät und dementsprechend niedrig die AVG Taktraten aussehen? Das Gute bei AMD ist, dass die per OC etwas mehr rausholen als zB eine 4090. (ca 5% vs 10% per OC)
https://www.computerbase.de/2022-12...hen Taktraten unter Last,Takt 2,3 GHz beträgt.
Dort waren es rund 200MHz mehr. Irgendwie sieht die XTX etwas lasch aus in dem aktuellen Test oder ist der nun so hart, dass die Karte (MBA Version) so stark ins PL gerät und dementsprechend niedrig die AVG Taktraten aussehen? Das Gute bei AMD ist, dass die per OC etwas mehr rausholen als zB eine 4090. (ca 5% vs 10% per OC)
Awww du Armer, dann lass es doch. Die Frage ist: Warum verspürst du den Drang deine uninteressante Meinung zu äußern, vor allem wenn es noch mehr Zeit raubt.DagdaMor schrieb:Gähn...
Ich finde es nur noch ermüdent (neben dem Zeitraub) die Rankings zu lesen und zu interpretieren.
Mag vielleicht interessant sein, aber mMn irgendwie zuuuviel.....
Das ist ja ein Widerspruch in sich.
Vielleicht ist es endlich mal an der Zeit Verantwortung über DEIN Leben zu nehmen. Gäääähn
Ich finde es super das ihr den Test Parcours immer wieder anpasst. Jedoch fehlen mir Vergleichswerte mit älteren Karten. 2080ti, 1080 usw. Vielleicht könnt ihr ein paar der wichtigsten Karten jeder Generation mit rein nehmen. Die 2080ti ist mmn die beste Karte in Preis Leistung wenn man was gebrauchtes kauft.
- Registriert
- Juni 2006
- Beiträge
- 44.444
@hemmi1982 Guten Morgen, ein Kaffee für Dich ☕
https://www.computerbase.de/2023-12...chnitt_rtx_2080_ti_und_rx_5700_xt_kommen_noch
In Anbetracht der bisherigen Wünsche, die ich so las, könnte dort vllt. noch eine RTX2060/70 hinzugefügt werden. Abgesehen vom kleineren VRam ließe die sich andererseits von der 2080Ti ableiten.
https://www.computerbase.de/2023-12...chnitt_rtx_2080_ti_und_rx_5700_xt_kommen_noch
In Anbetracht der bisherigen Wünsche, die ich so las, könnte dort vllt. noch eine RTX2060/70 hinzugefügt werden. Abgesehen vom kleineren VRam ließe die sich andererseits von der 2080Ti ableiten.
JoeyTai
Cadet 2nd Year
- Registriert
- Dez. 2023
- Beiträge
- 23
Ja, das mit einer Generation vorn von NV vor AMD ist betreffend RT vollkommen klar, finde ich. Warum ich zu RDNA2 Zeiten nicht NV gekauft habe hatte 2 Gründe. 1. hat mich die Speicherpolitik von NV nachhaltig geärgert und für die mal angedachten UVP der 6800xt mit 16 GB war klasse und der bessere Deal. 2. RT fand ich damals noch nicht so wichtig. Jetzt sieht die Rechnung schon anders aus. 3DFX Voodoos waren irgendwann auch mal schlechter ;-D Fanboytum hilft niemandem, sondern nur gut-informierte Konsumentenentscheidungen. ;-D.Tornavida schrieb:Ich sag schon ewig, dass man mit ner NV unterm Strich nicht teurer unterwegs ist als mit AMD GPUs (schon seit mind. Pascal), nur will das Niemand von den AMDler hier hören .
Zuletzt bearbeitet:
Es tut mir Leid negativ sein zu müssen, aber ich finde das überhaupt nicht hilfreich. Wenn nur die aktuelle Generation verglichen wird bringt mir das nichts.
Für mich ist Perf/€ der Indikator, und das dürfte für die meisten Käufer so sein. Man hätte relevante Karten der letzten Generation irgendwie einordnen müssen, wenn auch ggf. mit verkürztem Testparkour. Ohne vergleich mit 6700 xt, 3060 ti, etc bringen die Daten einfach nichts.
Für mich ist Perf/€ der Indikator, und das dürfte für die meisten Käufer so sein. Man hätte relevante Karten der letzten Generation irgendwie einordnen müssen, wenn auch ggf. mit verkürztem Testparkour. Ohne vergleich mit 6700 xt, 3060 ti, etc bringen die Daten einfach nichts.
- Registriert
- Juli 2021
- Beiträge
- 2.842
Der Test behandelt in diesem Fall primär, wie AMD und NVIDIA mit den BVH-Strukturen umgehen und wie diese abgearbeitet werden und beschreibt auch ein Teil der Probleme bei AMD und RT, gleichzeitig bestätigt es aber auch das, was ich dir versucht hatte zu erklären:Quidproquo77 schrieb:Hier kann man das nachlesen.
"AMD thus uses a rather deep BVH with a lot of subdividing. That means less demand on intersection test throughput. […]"
Dass diese Struktur gewisse Anforderungen an die Caches und an den VRAM hat und es zu Problemen kommen kann, ist an der Stelle selbst klar.
Der wohl entscheidende Punkt ist aber direkt am Anfang des Tests: "The concept is quite simple, but there’s a lot of different ways you can build a BVH. If you put more boxes into a box node, you can subdivide the scene more. But that means more computation (intersection tests) at each level. You can make more levels to cut down on computational costs, but then you’d make more jumps from one node to another."
Ich denke, ich muss mich an der Stelle etwas genauer ausdrücken - es ist Missverständlich, dass muss ich zu geben:Quidproquo77 schrieb:Das halte ich allerdings für falsch oder irreführend, jedenfalls passt es nicht zu dem was ich bisher im Netz dazu gelesen habe.
Unterm Strich heißt das für mich, die AMD Lösung ist massiv schwächer und relativ schnell überfordert, es sei denn die Komplexität der Berechnung ist minimal, wie etwa in FarcCry 6.
AMDs Umsetzung ist für die Entwickler flexibler. Wenn du diese "Flexibilität" zu nutzen weißt, kannst du Rechenleistung einsparen.
Ich hab jetzt den letzten Punkt deswegen auch mit genommen und wiederhole mich kurz: "Ja und Nein". AMDs Ansatz ist - wie oft - der "sparsame" und "effiziente" auf Hardware-Ebene, gleichzeitig der "flexible" auf Software-Ebene.
Und das siehst du auch an dem BVH-Test, den: AMD will pro BVH-Knoten möglichst wenige "Tests". Der BVH-Baum ist daher auch sehr tief. AMD erwartet hier von dir als Entwickler, dass du "frühzeitig" sinnlose Strahlen erkennst und verwirfst, sodass du gar nicht in die maximalen Tiefe des BVHs eintauchst.
Doch, genau das passt zu flexibel. Flexibel ist es, wenn du Strahlen möglichst früh verwerfen kannst, um unnötige Berechnungen gar nicht durchzuführen. Flexibel ist es auch sich zu überlegen, ob man ohne Test durch den BVH geht oder mit Tests und Co.Quidproquo77 schrieb:Das passt aber nicht zu "flexibel".
Meine stark vereinfachte Erklärung findet sich in dem BVH-Test wieder und erklärt dir auch die Unterschiede der unterschiedlichen BVH-Strukturen.Quidproquo77 schrieb:Ich glaube nicht, dass diese Erklärung so wirklich Sinn macht, aber ich lasse mich gerne eines Besseren belehren.
AMD hat einen BVH-Baum mit hoher Tiefe, wenigen Polygone pro Ast/Blatt/Verzweigung. AMD ist in diesem Fall darauf angewiesen, dass Strahlen (1.) gebündelt in die gleiche Richtung laufen (Einer der Gründe, warum AMD bei RDNA 3 nun eine Sortierung implementiert hat, um die Memory-Zugriffe zu optimieren.
Der zweite Punkt ist, dass AMD nun auch versucht möglichst früh aus den Triangel-Boxen heraus zu kommen:
Und warum AMD auch mehre Möglichkeiten mit den "Vorteilen" für bestimmte Strahlentypen implementiert:
AMD erwartet von dir als Entwickler sehr viel mehr bei der RT-Implementierung und gibt dir viele Werkzeuge an die Hand. Die "Flexibilität".
Nur wenn du wirklich die volle Werkzeugkiste bei AMD nutzt - (Flexiblität) - kannst du das volle Potenzial bei RDNA2 und RDNA3 beim RT herausholen. Das ist aber sehr kompliziert.
Nvidias-Ansatz ist da unkomplizierter, gleichzeitig aber auch - und auch das wird in dem von dir verlinkten Test angesprochen - darauf ausgelegt, viele "unnötige" Tests zu machen.
Und damit schließt sich dann der Kreis zu meinem "Ja und Nein". AMDs Ansatz bietet den Entwicklern viel Flexibilität und erwartet auch, dass man diese Flexibilität nutzt. Wenn man diese Flexibilität zu nutzen weiß, kann man relativ viel Leistung herausholen.
Nvidias-Ansatz ist für die Entwickler "unflexibler". Nvidia ist sich bewusst, dass es bei RT sehr schwer ist zu entscheiden, ob nun ein Strahl wirklich ins Leere läuft oder doch bis in die tiefste Ebene des BVH muss. Entsprechend hat Nvidia ihre Implementation darauf ausgelegt, lieber ein "unnötigen" Test mehr zu machen.
Und damit kommen wir zu dem letzten Ja und Nein: AMD ist aktuell darum bemüht, jeden "unnötigen" Transistor einzusparen und legt deswegen auch unterschiedliche Aufgaben auf die gleichen Transistoren. Man sieht es an den AI-Accelatoren, man sieht es beim RT und Co. AMD versucht die "Kosten" der Chips zu drücken, wo sie nur können. AMD "prahlt" ja gerne damit, dass sie aus weniger Transistoren ungefähr die Leistung wie NVIDIA zieht.
Und damit ein finales Ja und Nein:
Nein, pauschal ist AMDs Ansatz nicht unbedingt schwächer, er ist anders ausgelegt und erfordert mehr Optimierungen durch den Entwickler.
Ja, AMDs Ansatz ist schwächer. AMD erwartet, dass man rechtzeitig genug Strahlen erkennt, die ins leer laufen. Tut man das nicht, springt man unnötig im BVH herum, das kostet Latenz und Zeit. Ja, AMDs Ansatz ist schwächer, weil AMD "unnötige" Intersections-Tests vermeiden will.
Und damit auch ein: Ja, AMDs Ansatz ist schwächer, weil man aktuell mindestens eine, bis anderthalb Generationen zurückhängt. Ebenso ist der Ansatz schwächer, weil man bisher einen Weg geht, der anders ist, als der von NVIDIA.
Es wird deswegen ja gemunkelt, dass AMD ihren Ansatz noch mal überarbeitet und sich den vom NVIDIA annähert.
@Taxxor hat auch damit recht, dass man bei AMD bei Spielen wie Cyberpunk und Co einiges an Leistung liegen lässt bei der RT-Implementierung. Man könnte hier mit Optimierungen auf RDNA2 und RDNA3 die Leistung bei den gleichen Presets durchaus noch anheben, ohne die Strahlen zu vermindern.
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.690
Ich finde die Betrachtung völlig witzlos. Ich weiß gar nicht wie oft ich schon geschrieben habe, dass eine Betrachtung im Verhältnis Preis/Leistung keine Aussage darüber treffen kann, ob die absolute Leistung ausreichend ein gewünschtes Level erreichen kann, oder ob das Produkt überhaupt ins Budget passt.
Geht man nach diesen Tabellen ist es Quatsch irgendwas anderes als eine ARC 750 zu kaufen.
Eine bessere Einstufung wäre es die Karten in Preisgruppen zu unterteilen und dann zu sagen, welche Karte bringt hier die meiste Leistung für dieses Budget. Das wäre wesentlich realitätsnäher, als dieser Preis/Leistungs-Quatsch.
Ich verstehe auch nicht das Gebashe gegen die 4090. Wer sich eine Karte >1700€ kauft, der ist Enthusiast und will High End kaufen und ist sich des Budgets durchaus bewußt. Jemand der aufs Geld schaut, kauft sicher keine Karte mit vierstelligen Preisschild. Bei der Karte ist eine Betrachtung in Relation zum Preis völlig uninteressant.
Ich will mit der Karte eben Cyberpunk in Pathtracing flüssig spielen und das schafft nach der 4090 eben nur noch eine 4080 ohne nennenswert reduzierte Bildqualität.
Auch habe ich die Karte für VR gekauft, bei der AMDs 7000er massive Probleme haben (hatten? Darüber liest man hier auf CB @Wolfgang leider gar nichts.)
Geht man nach diesen Tabellen ist es Quatsch irgendwas anderes als eine ARC 750 zu kaufen.
Eine bessere Einstufung wäre es die Karten in Preisgruppen zu unterteilen und dann zu sagen, welche Karte bringt hier die meiste Leistung für dieses Budget. Das wäre wesentlich realitätsnäher, als dieser Preis/Leistungs-Quatsch.
Ich will ja jetzt nicht über AMD haten, aberZwirbelkatz schrieb:Diese Rechnung berücksichtigt min. 3 Kriterien nicht:
- Restwert der RDNA3. Die löst sich nicht in Luft auf.
- Potenzielles Ausfallrisiko außerhalb des Garantiezeitraums der Langzeitkarte 4090.
- Etwaige technische Entwicklung einer RDNA 4, die jedem hier unbekannt sein dürfte.
Manchmal weiß ich nicht, was anstrengender ist. In egal welchem Thema min. 1x über eine zusammenhanglose Lobhudelei über die 4090 zu stolpern; oder die Tatsache, dass selbst deren zweifelsohne exorbitante Leistung im Grundrauschen miserabler AAA-Programmierung flöten geht.
- AMD Karten verlieren gebraucht, im Vergleich zu den Grünen, wesentlich mehr an Wert. 2 Jahre alte AMD Karten bekommt man verhältnismäßig hinterher geworfen (letztlich gut für uns Spieler), heißt aber, dass der Punkt leider wenig Relevanz hat
- Garantie ist durchaus ein Faktor, aber welche Relevanz hat der? Wie oft hast du schon Karten eingeschickt, oder Defekte nach der Garantie gehabt. Ich habe einmal eine Dead on Arrival Karte gehabt, in 25 Jahren Hobby Gaming und wahrscheinlich >40 Grafikkarten. Ich habe sogar mal bei EVGA für eine 1080 eine 10 Jahre extended Garantie erworben, die Karte läuft bei meinem Neffen immer noch anstandslos.
- Das ist natürlich Glaskugel, aber neue Feature Sets aus der jüngeren Vergangenheit kamen fast durchgängig von grün und nicht von rot. Am Beispiel von FSR/DLSS sieht man ja auch, dass wenn es nur eins gibt, eher DLSS zu finden ist. Der massive Marktanteil im Gaming Sektor von Nvidia verschiebt das leider in die Position, dass AMD hier gar nicht in der Lage ist neue Features durchzusetzen. Nur mal als Beispiel (worüber ich mich sehr gefreut hätte) ist AMDs TrueAudio, was leider völlig tot ist.
Ich verstehe auch nicht das Gebashe gegen die 4090. Wer sich eine Karte >1700€ kauft, der ist Enthusiast und will High End kaufen und ist sich des Budgets durchaus bewußt. Jemand der aufs Geld schaut, kauft sicher keine Karte mit vierstelligen Preisschild. Bei der Karte ist eine Betrachtung in Relation zum Preis völlig uninteressant.
Ich will mit der Karte eben Cyberpunk in Pathtracing flüssig spielen und das schafft nach der 4090 eben nur noch eine 4080 ohne nennenswert reduzierte Bildqualität.
Auch habe ich die Karte für VR gekauft, bei der AMDs 7000er massive Probleme haben (hatten? Darüber liest man hier auf CB @Wolfgang leider gar nichts.)
@Wolfgang ich finde es schade, das ihr eure arbeit mir der nutzung von upsmapling so entwertet. upsampling ist etwas, womit man seine eigene grafikkarte retten kann, wenn sie nicht genug leistung hat. In test hingegen hat das nichts zu suchen. Wenn dann keine 30FPS im test stehen, dann sagt das sehr viel über das spiel aus.
Für mich haben hiermit eure test keine relevanz mehr.
Für mich haben hiermit eure test keine relevanz mehr.
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.690
@Shadak
Schaltest du TLAA als Kantenglättung ein?
DLSS/FSR ist von der Bildqualität jedem Postprocessing Kantenglätter überlegen und es ist die Realität, dass jeder das einschaltet, rein wegen der Bildqualität, sobald es verfügbar ist.
Man hätte bei Spielen, die in dem Testparcour mit hohen FPS abschneiden die Funktion mit hoher Auflösung, also DLAA/FSR Faktor 1.0 als Einstellung wählen können.
Die Funktion ist nunmal am Markt angekommen und wird genutzt. Benchmarks die das nicht berücksichtigen, haben wenig mit der Realität zu tun, daher ist die Entscheidung völlig richtig.
Schaltest du TLAA als Kantenglättung ein?
DLSS/FSR ist von der Bildqualität jedem Postprocessing Kantenglätter überlegen und es ist die Realität, dass jeder das einschaltet, rein wegen der Bildqualität, sobald es verfügbar ist.
Man hätte bei Spielen, die in dem Testparcour mit hohen FPS abschneiden die Funktion mit hoher Auflösung, also DLAA/FSR Faktor 1.0 als Einstellung wählen können.
Die Funktion ist nunmal am Markt angekommen und wird genutzt. Benchmarks die das nicht berücksichtigen, haben wenig mit der Realität zu tun, daher ist die Entscheidung völlig richtig.
Ähnliche Themen
- Antworten
- 178
- Aufrufe
- 10.496
- Antworten
- 294
- Aufrufe
- 40.746
- Antworten
- 877
- Aufrufe
- 277.841