Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAus der Community: Ein umfassender Vergleich von RX 7900 XTX und RTX 4090
Ich bräuchte da auch keinen Schnick-Schnack mit Taktraten für jeden P-State einstellen, wie es damals bei Vega war. Mehr als drei simple Eingabefelder für "Max Clock", "Max Voltage" und "Max Power" bräuchte ich gar nicht, wenn dadurch dann automatisch so eine Kurve generiert wird, wenn ich da entsprechend 2670/900/300 eingebe^^
Das ist der einzige "Nachteil" mit der 4090, dass ich nur dafür jetzt extra wieder den Afterburner installieren musste^^
Eine kleine Strafe dafür, dass du mich hier mit mehr Tests triggerst. Grummel. Nein, ich beherrsche mich. Nein, ich kann das erst zu Weihnachten machen, frühestens. Nein ich will nächstes Jahr nach Südafrika fliegen. Das Wochenende werde ich mein Buch fertig lesen.
Verdammte hacke, ich schreib die Themen mal in einen Themenspeicher!
eine Return of Investment Betrachtung mit Break even wäre nett wieviel Stunden müsst ich zocken um dem Preisunterschied rauszuholen. bei mir kommen vllt 12h/ Woche zusammen
Also ist es doch unerwartet habe ich Recht damit. Der Test zeigt das unter realistischen Bedingungen von Gamern (die kaufen nicht immer ne 500 Core cpu neuester Generation).
MoinWoll schrieb:
Der 99,9% Wert von @DevPandi ist nicht aussagekräftig was die Leistung der GPUs zueinander betrifft, da hier in 1440p und mit einem 5800X3D gebencht wurde, der ca. 20% langsamer ist als z. B. ein 7800X3D oder 13900KS.
Gerade das macht den Test so interessant, gerade Leute die auch ueberlegen Geld zu sparen mit ner 7900XTX statt ner 4090 werden sicher nicht immer die allerneueste super CPU kaufen, eine 5800X3D ist gehobene Mittelklasse aber eben nicht das schnellste. Genau so wie man es daheim vorfindet, da kauft nicht jeder der ne neue Grafikkarte kauft immer gleich noch die neuste erhaeltlichste schnellste CPU dazu.
Dagegen sind die Benchmarks auf solchen Seiten reine Laborergebnisse die bei 99% der Leute nicht so sein wird.
Wenn ich hier mal in die Signaturen schau:
//// MSI RTX 4090 Suprim X @ 2,8 GHZ @ 0,95 Volt meets the Mighty Ryzen 5900X ////
Bestätigt mein Bild. Inzwischen bin ich an einem Punkt wo mir Effizienz wichtiger ist als FPS pro Euro, wenn meine 6900xtxh mal den Löffel abgibt war’s garantiert meine letzte AMD GPU, scheiss Treiber, miese Effizienz.
eine Return of Investment Betrachtung mit Break even wäre nett wieviel Stunden müsst ich zocken um dem Preisunterschied rauszuholen. bei mir kommen vllt 12h/ Woche zusammen
Wenn ich die Stromkosten nehme und den Unterschied bei den für mich relevanten Spielen? Die 4090 wird sich in diesem Zusammenhang NIE rechnen. Ja, sie verbraucht in dem alten Limit nur ca. 50 % der Energie, aber ich müsste 20 Stunden für 1 kWh spielen, dass aktuell bei mir ca. 33 Cent sind. Bevor sich die 4090 in diesem Fall rechnet, bin ich ein verfaulendes Pandi oder meine Asche wurde übers Meer verstreut und ich glucker fröhlich in meinen Aschenbestandteilen vor mich hin und Summe dabei irgendein Schiffermannskanon.
Nehm ich meinen Stundenlohn hin zu und meine Arbeit, dann rechnet sich die 4090 innerhalb der nächsten 12 Monate.
Das würde ich auf der Grundlage von 2% Abweichung in einem relativ kleinen Testparkour nicht schlussfolgern können. Das könnte m. E. genauso gut durch Messungenauigkeit und/oder Variation im Spielverlauf begründet sein. Muss aber natürlich nicht falsch sein. Man müsste hier denke ich sicherstellen, dass beide Karten 100% der Zeit im CPU-Limit sind (z. B. in 720p) und viele Benchmark-Wiederholungen durchführen, um gesicherte Aussagen treffen zu können.
Wenn bei stärkerer CPU im Computerbase Test bei 1440p die 4090 im Raster Perzentile 22% vorne liegt, und bei Raytracing 50% und eine Mischung mit der schwächeren CPU auf 0% der Vorsprung zusammenfällt, dann kann man das schon sagen das die Treiber 20-30% besser mit der CPU umgehen es ist dann keine 2% Abweichung sondern ne 20-50% Abweichung.
Es waere spannend den Test mal mit ner Heliumgekuehlten oder sonstigen starken CPU die noch nicht aufm Markt ist zu testen ob der Abstand noch groesser wird.
Also ist es doch unerwartet habe ich Recht damit. Der Test zeigt das unter realistischen Bedingungen von Gamern (die kaufen nicht immer ne 500 Core cpu neuester Generation).
Du hast nicht gesagt, dass eine schnellere GPU keine Mehrperformance bringt, wenn man im CPU-Limit ist (was klar ist). Dass die 4090 in 1440p selbst mit den aktuell schnellsten CPUs, und der 5800X3D ist 20% langsamer als die schnellsten CPUs, häufig CPU-limitiert wird, ist kein Geheimnis und nicht unerwartet. Du hast Folgendes gesagt:
blackiwid schrieb:
in dem Newsartikel steht aber kein gutes Wort, und nur weil manche schon in Tests wussten das die 7900XTX ja im Raster/gaming fast 1:1 mithalten kann bzw sogar vorbei zieht und im mixed Betrieb ungefaehr gleich zieht, ist das keine Selbstverständlichkeit sondern fuer mich immer noch absurd gutes Preis/Leistung für Gamer (zumindest im Vergleich). Und kratzt auch sehr an der Vorstellung das die 4090 die absolute Wunderkarte ist, fuer Gaming nicht ausser man cherrypickt ausschließlich RT.
Wenn bei stärkerer CPU im Computerbase Test bei 1440p die 4090 im Raster Perzentile 22% vorne liegt, und bei Raytracing 50% und eine Mischung mit der schwächeren CPU auf 0% der Vorsprung zusammenfällt, dann kann man das schon sagen das die Treiber 20-30% besser mit der CPU umgehen es ist dann keine 2% Abweichung sondern ne 20-50% Abweichung.
Das kann man überhaupt nicht sagen. Wenn der 5800X3D die 7900 XTX auf 80 FPS limitiert und die 4090 auf 78 FPS dann ist das ein Unterschied von etwa 2% der durch Treiber zu erklären sein könnte (nicht muss) und nicht 20-30%. Die CPU ist 20-30% langsamer, mehr kann man aus dem Vergleich der CB Tests mit DevPandis Tests (vor der Korrektur) nicht herauslesen.
Kaum ein Reviewer lobt die Treiberoberfläche von AMD, die einfach viel moderner und übersichtlicher ist als die schon seit ewigkeiten gleiche Oberfläche von Nvidia.
Moderner ist sie, die Übersichtlichkeit hat(te) mit den letzten Versionen m. E. aber wieder etwas gelitten.
Aber selbst das ist von der UX weiterhin "Universen" von der des Standard Nvidia Treibers entfernt.
In der Praxis ist es für mich allerdings nicht so relevant, da ich kaum spielspezifische Einstellungen habe bzw. nicht so viel verschiedene Spiele spiele. Diesen "Catalyst"-Style in 2023 dann wieder vor Augen zu sehen, gab mir trotzdem eine Art von Flashback.
DevPandi schrieb:
Das Power-Target kannst du per alt+z im Overlay anpassen, After Burner brauchst du dafür nicht mehr.
Aber nur mit der Experience-Version des Treibers, oder?
Ich habe erstmalig zu Nvidia gegriffen (4070Ti) - wegen Compute und der signifikant besseren Effizienz. Mit 1440p, UV und einem 60FPS-Cap ist es bei Sommerspielen gefühlt deutlich weniger als halb so warm im Zimmer als mit dem Vorgänger Vega 56.
Zum Thema DLSS/FSR sollte bei Grafikkarten der Leistungs- bzw. Preisklasse irrelevant sein. Wer sich so eine Grafikkarte kauft will mit nativer Auflösung spielen.
Zum noch eine kleine Anmerkung: die Radeon hat keine "RT Kerne" das ist einfach der Teil der CU.
Ich will mit dem besten Output spielen - dabei verzichte ich gerne auf den "native fake output", wenn er schlechter ist.
In Diablo IV spiele ich mit DLAA, also "native fake" kombiniert mit "temporal fake". Top!
Ich meine zu verstehen, wie Du das meinst. Mein leichte Polemik kommt daher, dass Spiele-Grafik bisher auch nichts anderes war als "Fake":
Die bestmögliche Annäherung an die realistische Darstellung einer virtuellen Szenerie unter Berücksichtigung der leistbaren technischen Machbarkeit. Und Letztere macht nun gerade mit der Wiederverwendung einer akkumulierten Vergangenheit ihren nächsten Sprung.
Die Effizienz im Vergleich ist schlechter bei RDNA3 und hier kann man auch nur erstmal über Navi 31 sprechen. Eine 6900XT war damals effizienter als 3090.
Bis die 6900XT mal nicht reicht wird es bereits RDNA4 geben.
Und miese Treiber. Naja. Nvidia ist nicht besser solltest du dir das erhoffen, alleine 2023 gab es schon zig News zu Treiberprobleme bei Nvidia. Hohe CPU Last, flackernde Monitor mit Gsync usw. Kann man alles nachlesen. Auch in Release Notes stand bei Nvidia noch nie "Nichts" unter Known Issues.
DLAA ist aber kein Upscaling, sondern eine AA Technik (die unterschätzt wird).
Mir ging es eher um Techniken, die auf Kosten der Grafik die Performance verbessern, und die sind nun mal nur bei Grafikkarten der mittleren oder gar unteren Preisklasse von (großer) Bedeutung.
Du hast nicht gesagt, dass eine schnellere GPU keine Mehrperformance bringt, wenn man im CPU-Limit ist (was klar ist). Dass die 4090 in 1440p selbst mit den aktuell schnellsten CPUs, und der 5800X3D ist 20% langsamer als die schnellsten CPUs, häufig CPU-limitiert wird, ist kein Geheimnis und nicht unerwartet. Du hast Folgendes gesagt:
Nein die Aussage ist halb Falsch und halb Richtig, ich denke nicht das alle die den Test gelesen haben sich klar waren das wenn man ne übliche high-midrange CPU hat das dann die 4090 nicht sich absetzen kann von der 7900XTX, ich persönlich war low key davon überrascht ich werde wohl nicht der einzige sein. Meine Aussage ist also in manchen Fällen wahr in anderen nicht, ob es >50% klar war oder <50% kann ich nicht sagen, müsste ich wetten würde ich auch >50% setzen.
MoinWoll schrieb:
Das kann man überhaupt nicht sagen. Wenn der 5800X3D die 7900 XTX auf 80 FPS limitiert und die 4090 auf 78 FPS dann ist das ein Unterschied von etwa 2% der durch Treiber zu erklären sein könnte (nicht muss) und nicht 20-30%. Die CPU ist 20-30% langsamer, mehr kann man aus dem Vergleich der CB Tests und DevPandis Tests (vor der Korrektur) nicht herauslesen.
Naja ob die 5800X3D nun einfach nur bis X FPS liefern kann und deshalb die 4090 fuer Raster Gerade im 1% egal wird, oder ob es der Treiberoverhead ist, mag in manchen Szenarien wichtig sein, aber fuer die potenziellen Kunden die ne normale CPU haben bleibt das Fazit das man mit der CPU fuer Gaming wenig von der 4090 hat und man lieber ne 7900XTX kaufen sollte.
Fuer die potenziellen Kunden die ne normale CPU haben bleibt das Fazit das man mit der CPU fuer Gaming wenig von der 4090 hat und man lieber ne 7900XTX kaufen sollte.
Wer eine "normale CPU" hat und auch keine neue kaufen will, der kauft weder eine 7900XTX noch eine 4090. Oder anders herum: Wer die Freiheit hat, sich zwischen 7900XTX und 4090 entscheiden zu können, der hat auch die Kohle für einen 13900K oder Ähnliches.
Nein die Aussage ist halb Falsch und halb Richtig, ich denke nicht das alle die den Test gelesen haben sich klar waren das wenn man ne übliche high-midrange CPU hat das dann die 4090 nicht sich absetzen kann von der 7900XTX
Letztere Aussage ist, zumindest in 1440p und den von DevPandi getesteten Spielen (vor DevPandis Korrektur der vertauschten Werte), richtig. Aber Deine ursprüngliche Aussage, die ich kommentiert habe, war es halt nicht.
blackiwid schrieb:
Naja ob die 5800X3D nun einfach nur bis X FPS liefern kann und deshalb die 4090 fuer Raster Gerade im 1% egal wird, oder ob es der Treiberoverhead ist, mag in manchen Szenarien wichtig sein, aber fuer die potenziellen Kunden die ne normale CPU haben bleibt das Fazit das man mit der CPU fuer Gaming wenig von der 4090 hat und man lieber ne 7900XTX kaufen sollte.
Wenn man in 1440p spielt und die von DevPandi getesteten Spiele, ist das auch richtig (vor DevPandis Korrektur). Aber auch das ist wieder eine völlig andere Aussage, als Deine ursprüngliche, auf die ich mich bezog, dass NVIDIA 20-30% Leistung relativ zu AMD durch Treiber-Overhead verlieren würde.
Ich bin übrigens auch ein Gamer mit einer normalen CPU (7800X3D für 439€, nichts teures wie 7950X3D, 13900KS oder Workstation-CPU). Ich spiele mit einer 4090 meist in 5160x2160 (falls nötig oder qualitativ sinnvoll mit DLSS Quality) und mit vollen Details (inkl. RT). Hier habe ich dann eben 30% (Minimum bei reinen Raster-Spielen) bis 200% (Cyberpunk mit Pathtracing) mehr FPS (auch 0,1% FPS), als ich mit der 7900 XTX hätte.
Nach Deiner Argumentation ist eine 7900 XTX übrigens genauso unnötig wie eine 4090 für Gamer, weil die meisten ja in 1080p auf einem Ryzen 3600 spielen, wenn man mal außerhalb von Hardware-Foren schaut.
Bestätigt mein Bild. Inzwischen bin ich an einem Punkt wo mir Effizienz wichtiger ist als FPS pro Euro, wenn meine 6900xtxh mal den Löffel abgibt war’s garantiert meine letzte AMD GPU, scheiss Treiber, miese Effizienz.
theoretisch sollte 4k@FSR2 ähnlich sein wie 1440p, ... k.A. ob die 4090 schon im CPU-Limit hängt, und dadurch irgendwann sparsamer wird
Wozu man dann 32fps nutzen sollte, ist vllt. ein bisschen an den Haaren herbeigezogen.
Nach m.E. ist es "normal" das der SOC+Vram net unendlich runter geht in Games bis DPM1.
(wenns NV hinbekommen hat für solche unüblichen niedrigen Fps, mirwegen viel Spass damit)
dito
wirds sicherlich in FHD@FSR2 auch irgendwann net mehr sparsamer gehen
Wenn man ne 4k-Graka so vergewaltigt, kann nur Zeug rauskommen, auf Was der Treiber+Arbitrator schlecht ausgelegt sind.
Von daher finde ich FHD@60fps für so ne Graka sinnlos.(in den CB-Reviews)
Genauso ist die Architektur net auf Pathtracing ausgelegt, ... Informationswert = gering.