Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen
AMD hat bis heute nichts, was mit Reflex vergleichbar wäre.
Das bräuchten sie aber spätestens, wenn sie FSR 3 bringen.
Radeon Boost und Radeon Anti-Lag bringen da jedenfalls nichts und das neu angekündigte "HYPR-RX" ist auch nur eine One-Click Option, die mehrere dieser bereits vorhandenen Features gleichzeitig aktiviert.
Same here..
und die meisten davon haben GPU, wo ein IDLE Wert von 11W ein Traum wären..
Ich kenne 2 Leute, die sich mit dem Thema ernsthaft befassen und beide, der eine entwickelt Software, sagte mir zum Thema RT: Wenn Epic mit der UE5.1 so vorlegt, dann ist es für ihn fraglich, ob nicht die Unreal Lösung die bessere ist, da dort nicht durch Herstellerdongles Leistung brach liegt.. Er hofft auch dass FSR 3 dann die RTX30 supportet.. Denn dann ist der Gap zur RTX40 plötzlich sehr sehr klein.
Ragnarök88 schrieb:
AMD ist nicht gleichwertig. Nvidia liegt diese Gen (4090Ti) 50 bis 100% vorne, das ist eine komplette Gen.
Wo wir bei Fakten sind: https://www.3dcenter.org/artikel/la...nch-analyse-amd-radeon-rx-7900-xt-xtx-seite-2
Ich bin echt gespannt, wie die 4090Ti dann mal locker 100% drauflegt. Nvidia ist AMD nicht vorraus, AMD und NV nutzen nur unterschiedliche Herangehensweisen. AMDs Shader haben aber auf Grund des Chiplet Design keine 100% Power... Sollten die 1CU = 1Tflops der Navi 33 stimmen, dann scheint auch hier AMD etwas verbessert zu haben. Nvidia profitiert hier seit Jahren vom TGMTPB Programm, aber auch NV wird über Kurz und Lang das Gaming in die Cloud auslagern. Das ist die logische nächste Konsequenz und es geht schon los.
Also bitte keine Unwahrheiten verbreiten
Damit auch du es verstehst... Abseits von DLSS3 ist die Lücke nur bei der AD102 so groß, der Chip ist aber auch sehr teuer in der Herstellung und mal eben doppelt so groß wie GA102: https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930
Aber dafür müsste man sich ja mit der Thematik auskennen..
Ach und würde AMD Keinen Frei Fronten Krieg führen, dann wäre man Finanziell vermutlich auch noch mal sicherer aufgestellt. Aber man würde bei Fehlleistungen auch mehr verlieren.
AMD Anti-Lag kann im GPU-Limit zwar die Latenz um ein paar Millisekunden reduzieren, was aber den Bock nicht wirklich fett macht.
Somit agieren die beiden Karten auf Augenhöhe, auch wenn NULL nicht funktioniert hat. Aktiviert der NVIDIA-Nutzer hingegen Reflex & Boost, dann trennt sich die Spreu vom Weizen. Hier zieht NVIDIA in Bezug auf die Latenz auf und davon! Zumindest so lange bis Radeon Boost seinen Auftritt hinlegt. Dann kommen die beiden Karten wieder sehr eng zusammen. Aber nur auf den ersten Blick! Die Details offenbaren hier den Unterschied. Die Streuung von Radeon Boost ist und bleibt ein ungeliebter Nebeneffekt für die Latenz!
Die einzige Möglichkeit wie man aktuell in die Nähe der Latenz von Reflex kommt ist durch die Auflösungsreduzierung von boost, welche auch nur in Szenen mit viel Bewegung wirkt, weswegen die Latenz stark schwankt. Außerdem funktioniert das logischerweise nur im GPU Limit, habe ich also ein CPU Limit oder selbst einen FPS Limiter gesetzt, bringt mir Boost gar nichts.
Also für FrameGeneration meist ungeeignet.
Er betrachtet vmtl nicht nur die Raster Performance.
Bei RT liegt die 4090 72% vorne, eine 4090Ti wird noch mal mind 10% drauflegen, dann liegt sie in RT bei >90% und in Raster bei >40%.
Immer diese Übertreibungen. Was denn nun, Immer dieses Cherry Picking. Wenn ich Fan von AMD oder Nvidia bin, kann ich die Dinge/Diagramme drehen/deuten wie ich möchte bis ich das gewünschte Ergebnis habe. Mit Sachverstand hat das nichts zu tun
Könnt ihr noch Benchmarks mit mehreren 1440p high-refresh Monitoren anhängen? Der hohe Multi-Monitor-Idle-Verbrauch ist aktuell meine große Kaufhürde für die 7000 Series. Meine 6800 XT "begnügt" sich mit 42W idle bei zwei oder drei 1440p 165hz Monitoren.
Er betrachtet vmtl nicht nur die Raster Performance.
Bei RT liegt die 4090 72% vorne, eine 4090Ti wird noch mal mind 10% drauflegen, dann liegt sie in RT bei >90% und in Raster bei >40%.
Dann sollte er vllt endlich auch mal betrachten, dass selbst eine RTX30 mit DLSS ähnliche Zuwächse hat.. Du wirst es spätestens mit FSR3 dann sehen. Sorry aber die Aussage ist doch völliger Humbug..
Du bist doch gegen Cherry Picking, warum machst du dann hier eine Ausnahme?
Wenn du das wirklich feierst, naja..
Dann sollte er vllt endlich auch mal betrachten, dass selbst eine RTX30 mit DLSS ähnliche Zuwächse hat.. Du wirst es spätestens mit FSR3 dann sehen. Sorry aber die Aussage ist doch völliger Humbug..
Wo ging es um DLSS Zuwächse, hab ich was verpasst? Es ging um den Unterschied der 4090 bzw der folgenden 4090Ti und AMDs Topmodell.
Und das sind aktuell für die 4090 ~30% in Raster und ~70% in RT.
Wenn FSR3 FM dann die FPS verdoppelt, sind es ggü DLSS3 FG weiterhin 30 bzw 70% Unterschied.
Nur könnten die dann in einigen Spielen egal sein, weil man mit der 7900XTX + FSR3 bereits das gewünschte FPS Target erreicht. Selbst dann wäre aber für die 4090 aufgrund der höheren Reserven ein deutlich geringerer Verbrauch drin.
Rockstar85 schrieb:
Du bist doch gegen Cherry Picking, warum machst du dann hier eine Ausnahme?
Hä? Was für Cherrypicking? Das ind beides jeweils die Performance Unterschiede aus der 3DCenter analyse.
Ich hab konservative 10% angenommen für eine 4090Ti. Wenn er nun davon ausgeht, dass sie ~15% auf die 4090 drauflegt, dann sind wir auch damit bei besagten 50%(Raster) bis 100%(RT).
Und ja, das ist dann eine Generation Unterschied, mehr sogar wenn man AMDs Generationssprung betrachtet.
Der Unterschied von 4090Ti zu 7900XTX wird insgesamt größer sein, als der Unterschied von 7900XTX zu 6950XT.
Zitat Ragnarök: Die 4090Ti wird bis zu 100% Mehrleistung auf die 7900XTX packen..
Bitte lies doch mal vorher die Texte richtig und arbeite dich nicht an Kleinigkeiten auf.. Es macht dich am Ende Unglaubwürdig. Und das ist schade.
Immer Ideologischer wird hier agiert, sorry aber eigentlich habe ich dich anders wahrgenommen.. Ja man kann Fan einer Firma sein, dann sollte man das aber auch in den Disclaimer tun, wie es zB. der gute @Sunjy Kamikaze machte.. Dann kann man das Bild auch besser zuordnen.
So und wir treiben mal wieder ins OT..
Und ja die 7900XTX zu 6900XT Zuwächse sind nicht wirklich heftig, aber auch hier muss man sich die installierte Rechenleistung anschauen. Ich gehe sogar so weit, dass AMD mit der nächsten Navi Gen das Problem angeht, und die 80-85% Shaderleistung mit RDNA4 nicht mehr vorhanden ist. Schaue ich mir die RT Zuwächse zB. der RT Einheiten an, dann ist AMD auf dem Richtigen Weg. Dass aber eine 7900XTX als 7900XT vllt die bessere Wahl gewesen wäre ist mittlerweile logisch. Selbst wenn die 7900XTX noch mal 10% im Treiber draufpackt, dann wird es nicht reichen, so eine Monster wie AD102 zu erreichen. Nur wird NV sich mit Chiplets auf die gleichen Probleme wie AMD stürzen müssen.. Wie ich es schon vor 4 Wochen sagte, RNDA3 ist der Zen1 Moment bei AMD.
Zitat Ragnarök: Die 4090Ti wird bis zu 100% Mehrleistung auf die 7900XTX packen..
Bitte lies doch mal vorher die Texte richtig und arbeite dich nicht an Kleinigkeiten auf.. Es macht dich am Ende Unglaubwürdig. Und das ist schade.
Sorry, ich sehe da immer noch nichts von DLSS.
Und er sagte 50-100%, was eben dem entspricht, was eine 4090Ti in Raster und RT auf die 7900XTX drauf packen wird.
Rockstar85 schrieb:
Immer Ideologischer wird hier agiert, sorry aber eigentlich habe ich dich anders wahrgenommen.. Ja man kann Fan einer Firma sein, dann sollte man das aber auch in den Disclaimer tun
Ich weiß echt nicht was du von mir willst, ich habe die nackten Zahlen aus dem 3DCenter genannt, zusammen mit dem zu erwartenden Zuwachs von 40090 auf 4090Ti.
Was ist da ideologisch und warum bin ich deshalb Fan einer Firma?
Sorry, ich sehe da immer noch nichts von DLSS.
Und er sagte 50-100%, was eben dem entspricht, was eine 4090Ti in Raster und RT auf die 7900XTX drauf packen wird.
Eine 7900XTX hat in 4K in Etwa 30% unter einer 4090... Wie soll die 4090Ti da 100% draufpacken? Sorry, aber das ist dann doch ein wenig Utopie. Selbst 50% sind Utopisch, außer NV macht 600W draus.
Hab ich doch jetzt schon 2mal geschrieben, auch in dem was du gerade zitiert hast, zu sehen:
Indem du nicht nur Raster sondern eben sowohl Raster, wo sie 30% vorne ist, als auch RT Performance betrachtest, wo sie 70-75% vorne ist.
Wenn eine 4090Ti 15% in beidem zulegt, dann haben wir 50% Raster und 100% RT Mehrleistung -> Genau die "50-100%", die @Ragnarök88 genannt hat.
Und selbst wenn es nur 10% sein sollten, sind wir eben bei 43-90%, womit man immer noch sagen kann, dass Nvidia an der Spitze aktuell eine Generation Vorsprung hat.
Und wenn man sieht, wie wenig die 4090 von ihren 450W gebrauch macht und wie wenig Performance sie auf 350W verliert, dann ist da noch einiges an Performance drin ohne mit dem Verbrauch über 450W gehen zu müssen. Zumal die Karte durch das Mehr an SMs ja bei gleichem Power Target automatisch effizienter wäre.
Nein, man kann es aber anhand des AD 102 Chips grob abschätzen.
AD 102 Vollausbau hat z. B. 18432 Shader Units, AD 102-300 (RTX 4090 ) hat 16384.
Theoretisch könnte die 4090ti also bis zum Vollausbau des AD102 genutzt werden
AMD sollte ihre Treiber auch mal durch "AI" optimieren lassen.
Nvidia macht es vor und AMD schaut womöglich da wieder nur zu.
Schade, wieder verpasste Chance wie so oft bei Nvidia vs. AMD
Und selbst wenn es nur 10% sein sollten, sind wir eben bei 43-90%, womit man immer noch sagen kann, dass Nvidia an der Spitze aktuell eine Generation Vorsprung hat.
Ich verstehe nur nicht, warum AMD so einen kleinen Chip mit so einem grossen Namen verkauft.
Wenn man sich mal ansieht, was der 102er für ein Monster ist, mit seinen +16.000 Shadern, deren theoretische Leistung er nicht einmal annähernd im Vergleich zu 4080 und 7900xtx auf die Strasse bringt, tritt AMD ja zu Schießerei mit einem Schraubenzieher an. Die 4090 wird der 7900xtx bei besserer Nutzung der neuen RT-Futures und besserer Auslastung der Kerne nur noch weiter enteilen. Fine Wine ist hier andersrum.
Eigentlich ist AMD wieder da, wo sie mit der 5700xt waren (die ich übrigens lange im Hauptrechner hatte, tolle Karte): Sie spielen bewusst von den Specs her nicht mehr in der Spitzenklasse mit, nur, dass sie die Karte jetzt halt 7900 statt 7800 nennen, was sie eigentlich ist, und verrückte Preise aufrufen.
Eigentlich ist AMD wieder da, wo sie mit der 5700xt waren (die ich übrigens lange im Hauptrechner hatte, tolle Karte): Sie spielen bewusst von den Specs her nicht mehr in der Spitzenklasse mit, nur, dass sie die Karte jetzt halt 7900 statt 7800 nennen, was sie eigentlich ist, und verrückte Preise aufrufen.
Die Preise werden auch der Grund für die Benennung sein.
Man hätte es tatsächlich wie mit der 5700XT machen sollen und sagen wir spielen diese Gen nicht im High End mit.
Nur dann hätten die Preise auch entsprechend niedriger sein müssen, eine 7800XT für 1200€ kann man schlechter als 6800XT Nachfolger verkaufen, als wenn man sie 7900XTX nennt und mit der 6950XT vergleicht.
"G" ist ja nun kein verbrauch, der wird neunmal in Watt gemessen. (Beziehungsweise in wh/h)
Wir können nun auch nicht von "G" zu Watt umrechnen mit den Infos die du uns gibt.
Im Prinzip hast Du recht, aber ich muss mit nein und nein antworten
Nein, denn die 7900XTX liegt diesmal in Reichweiter er 80er.
Nein, denn
Die Performance und die Effizienz der 5700XT waren eine erfreuliche Überraschung.
Der Performance und die Effizienz der 7900XT sind enttäuschend.
Klar ist die 4900 aufgrund der Chipgröße außer Reichweite.
Aber die 7090XT sollte sich von der 4080 absetzen können.
Angesichts des neuen Prozesses ist der Zuwachs der Frequenz und der Effizienz ernüchternd.
DerRico schrieb:
Sie spielen bewusst von den Specs her nicht mehr in der Spitzenklasse mit, nur, dass sie die Karte jetzt halt 7900 statt 7800 nennen, was sie eigentlich ist, und verrückte Preise aufrufen.
IMO bringt die 7900XTXT/XT nicht die Leistung auf die Straße, die sich AMD erhofft hat.
Navi 31 hat 20 % mehr CUs als Navi 21. Die Navi 32 hat aber dieselbe Anzahl an CUs wie die 6800.
Kann AMD überhaupt eine 7800XT auflegen? und wie überzeugend sieht dann eine 7800 im Generationsvergleich aus? 10 -15 %?
Im Vergleich zur 6700 sieht es bei einer abgespeckten Variante von Navi 32 (56 CU?, 48?) dann wieder besser aus.
Richtig spannend wird, was bei der Navi 33 rauskommt
Taxxor schrieb:
Die Preise werden auch der Grund für die Benennung sein.
Aber sind wie Mal ehrlich schon bei der 7900XT funktioniert es nicht und ich habe auch massive Zweifel, dass die 7900XTX sich lange auf diesen Preis halten kann.
Taxxor schrieb:
Man hätte es tatsächlich wie mit der 5700XT machen sollen und sagen wir spielen diese Gen nicht im High End mit.
Ich glaube Nvidia kann ihr Glück gar nicht fassen wie viele Gamer die 4090 kaufen.
Taxxor schrieb:
Nur dann hätten die Preise auch entsprechend niedriger sein müssen, eine 7800XT für 1200€ kann man schlechter als 6800XT Nachfolger verkaufen, als wenn man sie 7900XTX nennt und mit der 6950XT vergleicht.
Klar schaut man auf die Vorgängergeneration was die Preise angeht. Und da hat sich AMD ein bisschen an Schelte erspart. Aber letztendlich zählt was die Käufer bereit sind auszugeben. Und die schauen auf ihr Budget und vergleich was sie bei AMD oder Nvidia bekommen.
Bei den aktuellen Preisen werden sich diejenigen die wirklich offen sind für beide, eher für Nvidia entscheiden. Und da ist es dann auch egal wie die Karte heißt.
Aber ganz ehrlich, entscheidend werden die Preise der 4060 und 7600 sein. Und wenn Nvidia und AMD auch hier versuchen massiv an der Preisschraube zu drehen, dann gute Nacht.
Ich habe nie gesagt, dass es mich kümmert, sondern nur, dass AMD wohl keine 20% mehr Performance aus den Treibern kitzeln kann und, dass größere Effizienzsteigerungen unwahrscheinlicher werden.
Wenn ich aber Interesse an Grafikkarten im Preisbereich >1000€ hätte, würde es mich in der Tat kümmern 😄. Dann will ich nämlich ein ausgereiftes Produkt für mein Geld und kein dahingerotztes Stück HW, dass vielleicht in einem halben Jahr meinen Ansprüchen genügt.
Ich denke, die können 20% auskitzeln, wenn die Shader richtig sortiert werden und jede Einheit doppelt belegt werden kann.
Die HW ist nicht das Problem, aber das hast Du nicht verstanden.
Ergänzung ()
Shy Bell schrieb:
Das steht ja nicht im Widerspruch zu meiner Aussage. Man testet nicht, wenn man keine Zeit hat, weil der Releasetag näher rückt.
Fehler passieren vor allem dann, wenn es schnell gehen muss.
So ne Vaporchamper kann man sicher automatisiert testen, wenn man wollte, ebenso den Kühler, das geht garantiert automatisiert. Wenn man ganze Grafikkarten händisch testen muß, dann kostet das sicher Zeit aber auch Geld. Normalerweise werden solche Launches rechtzeitig geplant, die RDNA3 wurde schon zur Computex im Sommer angekündigt, also genügend Zeit imho.
Ergänzung ()
ETI1120 schrieb:
Das Problem für Nvidia war, dass noch einiges an Ampere-GPUs auf den Abnehmer wartet. Bei realistischen Preisen für die 4080 und 4070TI hätten Nvidia die Ampere-GPUs quasi verschenken müssen.
Im Grund hat Nvidia gejubelt als sie die Preise von AMD gesehen haben. Damit war klar, dass AMD sie nicht unter Druck setzt. Es bleibt die Frage wie der Absatz insgesamt aussieht.
Meine Meinung ist unverändert: Wenn die Ampere-Grafikkarten abverkauft sind, wird Nvidia die Absatzzahlen für 4080 und 4070TI prüfen. Und wenn sie der Meinung sind durch eine Preissenkung besser abzuschneiden, werden sie die Preise senken.
Und wenn sie das tun sollten, sehen viele nur noch diese Preissenkung und und vergessen den vergleich zur Vorgängergeneration.
Das Problem ist, daß die 3000er Karten auch viel zu teuer sind. Was willste da abverkaufen, wenn Du die Preise nicht senkst und mittlerweile stiegen die Preise wieder. Die Leute, die Aufrüsten mußten, haben das schon getan und die, die zuviel Kohle haben, haben sich ne 4090 gegönnt. Wenn, dann wird AMD eher die Preise senken als nvidia, weil für nvidia hat das keine Relevanz ob die Karten schnell oder langsam verkauft werden, weil gewisse Leute werden immer nvidia kaufen.
Ergänzung ()
ETI1120 schrieb:
Wieso? Nvidia will die Grafikkarten mit guten Margen verkaufen. Das wollen alle Unternehmen.
Weil es nvidia egal ist, ob die Karten verkauft werden oder nicht. Die liefern eben keine Chips mehr an die AIBs aus und verklopfen die für den Workstation- und Servermarkt, wo die Margen wesentlich höher sind.
Und die Marge der Karten wäre auch gut, wenn die Karten 30% günstiger wären (für nvidia). Die AIBs verdienen damit eh so gut wie nichts, die verdienen mehr mit AMD.