Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Taxxor schrieb:
Weil ja alle anderen massentauglichen Features (AA, AO, AF, SSAO etc pp) 0% Peformanceverlust haben?
Wozu gibt es dann überhaupt noch unterschiedliche Settings? Sollte doch alles gleich schnell laufen und kann daher für jeden automatisch immer aktiv sein.
Ergänzung ()
Ob man 3-5% verliert ist meistens unerheblich. Die Zeiten sind vorbei wo AA massive Frameeinbrüche gebracht hat...
Aber RT ist nunmal sehr rechenintensiv.

Das Frage ich mich auch bei vielen Settings, die nichts bewirken aber zwei Bildschirmseiten befüllen :D
Verstehe auch nicht, warum man in ultra bencht, auch wenn man die Unterschiede zu very high oder high nicht sehen kann... Fragen über Fragen.
Taxxor schrieb:
Genau so wie man es bei Ryzen 7000 gemacht hat, als es noch kein Raptor Lake gab. Da ist man auch nicht dazu übergegangen, nur mit Ryzen 500 zu vergleichen. Einfach mit dem alten Topmodell vergleichen.
Warum sollten sie nvidia einen Vorteil geben und zeigen wie schnell sie sind bei einer Karte, die noch heraussen ist? Sie haben mit ihrem bisherigen Topmodell verglichen. Wenn Du Dir die Spiele raussuchst und das mit nvidia vergleichst, weißt Du genau wie diese Karte zu einer 3090 (Ti) steht.
Ergänzung ()

SANDTIGER schrieb:
................RTX 4090 vs RX7900XTX

Shader 16384 vs 12288

TFlops 83 vs 56

Na das sieht nach 75-80% der Leistung aus
woher die 56 kommen weiß niemand, weil AMD spricht von 61.6 - just saying...
 
  • Gefällt mir
Reaktionen: Apocalypse
Eli0t schrieb:
woher die 56 kommen weiß niemand, weil AMD spricht von 61.6 - just saying...
Die kommen von den 2.3GHz Game Clock die AMD angegeben hat.

Auf die 61 kommt man, wenn man mit den 2.5GHz Front-End Clock rechnet.
 
Taxxor schrieb:
  • Recht großer Fokus auf "8K" und DP2.1
8K war genauso dumm wie bei nvidia und der RTX 30er Serie.
Immerhin DP2.1, daß das eine RTX 4000 Serie nicht bietet ist mehr als frech.
 
  • Gefällt mir
Reaktionen: Norebo, Malustra und Eidgenosse
Eidgenosse schrieb:
Das tun mehr, als Nvidia wohl gerade lieb ist, den Kommentaren auf youtube nach zu folgen.
Ich zocke eh keine shooter,nur Rollenspiele,hack&slay und Strategie,da läuft meine Karte immer noch Super.:D
 
  • Gefällt mir
Reaktionen: Eidgenosse
elmex201 schrieb:
Beide Karten sind preislich zu dicht. Die 7900 XT hätte auch 50 bis 100 Dollar günstiger sein dürfen. Wer bereit ist, 1080 Euro auszugeben, ist auch bereit 1200 Euro auszugeben, um gleich die beste Karte zu haben.
Das wird darauf hinauslaufen, dass die 7900 XTX viel schneller vergriffen ist.
nein $100 günstiger sein müssen.
Aber wenn man die XTX verkaufen will, dann macht man die andere Karte künstlich unattraktiv :)
Ergänzung ()

Taxxor schrieb:
Naja, das "Problem" ist, dass man die meisten dieser Features auch mit ner Nvidia Karte nutzen kann.

Das angekündigte FSR 3 ist ja nun eine Antwort auf DLSS3 Frame Generation, aber ich glaube nicht, dass man es hier hinbekommt, dass es mit AMD und Nvidia nutzbar sein wird.
Also hat man wieder den Nachteil, dass vmtl mehr Spiele DLSS3 FG unterstützen werden, als FSR3.
Wenn es nur 2x ist, ist es nicht das selbe sinnlose Ding wie DLSS3.
Wenn ich 40fps nativ habe, aber 70fps mit DLSS2, dann kümmern 140fps mit DLSS3 überhaupt nicht, wenn dadurch der Input Lag auch verdoppelt wird. DLSS3 taugt nur für Gameengine-Cutscenes und ansonsten ist dieses "Feature" vollkommen sinnbefreit, nur damit man ein Feature hat, das niemand braucht und nach dem niemand gefragt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide und Eidgenosse
Eli0t schrieb:
Wenn es nur 2x ist, ist es nicht das selbe sinnlose Ding wie DLSS3.
Wenn ich 40fps nativ habe, aber 70fps mit DLSS2, dann kümmern 140fps mit DLSS3 überhaupt nicht, wenn dadurch der Input Lag auch verdoppelt wird.
Er wird doch nicht verdopelt, das ist ja der Sinn dahinter, dass da AI Units dran mitarbeiten, damit nicht auf den kompletten nächsten Frame gewartet werden muss um Frame 1.5 zu erstellen.

Hat man im CB Test doch auch gesehen:

Nativ+Reflex: 28FPS / 71ms
DLSS Q + Reflex: 47FPS / 46,5ms
DLSS Q +FG + Reflex: 78,6FPS / 60,5ms


Und von DLSS auf DLSS + FG sinken die Frametimes von 21,3 auf 12,7 (-41%) bzw die FPS steigen von 47 auf 78,6(+67%), die Latenz steigt von 46,5 auf 60,5(+30%)
 
  • Gefällt mir
Reaktionen: .Sentinel. und rumpeLson
Känguru schrieb:
Zwei große Überraschungen:
  • Beim Preis nutzt AMD tatsächlich die günstige Chiplet-Technik zu seinem Vorteil aus.
Soviel günstiger ist das gar nicht, weil im Gegensatz zu nvidia, braucht AMD noch einen Interposer und der fällt auch nicht gratis vom Himmel.
Was es "günstiger" für AMD macht, ist weniger Verschnitt auf dem Wafer und eine vernünftige 2:3 ratio von MCD Wafern zu GCD Wafern, sowie die Möglichkeit MCDs zu stacken, was derzeit nicht gemacht wird, weil es noch zu kostspielig ist.
Ergänzung ()

Taxxor schrieb:
Er wird doch nicht verdopelt, das ist ja der Sinn dahinter, dass da AI Units dran mitarbeiten, damit nicht auf den kompletten nächsten Frame gewartet werden muss um Frame 1.5 zu erstellen.

Hat man im CB Test doch auch gesehen:

Nativ+Reflex: 28FPS / 71ms
DLSS Q + Reflex: 47FPS / 46,5ms
DLSS Q +FG + Reflex: 78,6FPS / 60,5ms

Die Lazenz ist höher als ohne FG(natürlich), aber immer noch niedriger als komplett ohne DLSS.

Wenn ich ein Spiel habe, daß nur 28fps nativ kann, ist das sowieso schon sinnfrei. Da ist die falsche Graka installiert oder das Spiel ist mies programmiert.

Meistens geht es darum den Monitor auszureizen, ergo wenn der 144Hz kann, macht es Sinn, daß ich mit DLSS2 oder FSR2 auf diese 144Hz komme.
Und wenn ich schon DLSS2/FSR2 nutze, dann handele ich mir trotzdem keine zusätzliche Latenz ein, fast egal für welches Spiel außer vielleicht Flight Simulator.

Sorry, das macht für einen Gamer Null Sinn.

Daher ist dieses Feature trotzdem sinnfrei, insbesondere wenn es scene-cuts nicht zuverlässig erkennt und Pixelbrei anzeigt. Wenn es dieses Feature von der Gameengine bei Cutscenes getriggert wird, dann würde ich das voll bejahren, dem ist aber nicht so, weil so weit denkt nvidia nicht. Und ich behaupte mal frech, einfach so, daß DLSS3 gar nicht für Gamer entwickelt wurde, sondern eher für Film/Animationsstudios, die sich damit viel Arbeit ersparen würden.
 
Zuletzt bearbeitet:
Ich würde vermuten die Preise haben ihren Grund. Die Vergangenheit zeigte, dass AMD selbstbewusst rangeht, wenn sie es der Leistung nach können. Warten wirs ab
 
SavageSkull schrieb:
Gibts denn mittlerweile mal kritische Tests zu dem FG Zeugs? Ich halte davon erstmal gar nichts, da wir hier davon reden, dass wir Zwischenbilder aus bestehenden Bildern berechnen, aber keinen Einfluß von Steuerung oder sonstiger Spielberechnung berücksichtigen.
Das hat lediglich den Vorteil eine flüssigere Darstellung hin zu bekommen, wenn es schon für das Auge ruckelt. Die Frage ist nur ob man dann nicht einen starken Input Lag spürt.
Wer sowieso über 100fps liegt braucht das dann auch nicht.
Das Feature zeigt nur eine hohe FPS Zahl an, aber eigentlich bietet es nichts Nützliches.
Hardware Unboxed hat dazu ein Video gemacht:
 
  • Gefällt mir
Reaktionen: iron_monkey
Eli0t schrieb:
wenn dadurch der Input Lag auch verdoppelt wird.
Ganz abgesehen davon, dass es nicht richtig ist, stellt sich hier die Frage wen es "juckt"? Da wo es auf Latenzen ankommt, spielen die Leute meist sowieso mit reduzierten Grafiksettings und überall woanders interessiert es kein Schwein. Was du bekommst ist eine flüssigere/höhere Framerate und das zählt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wenn das Spiel so lahm ist, juckt das auch nicht... Und bei welchen Spiel juckt der Lag nicht? Flight Simulator und Schach :D Aber bei Schach brauch ich keine 240fps :D
Ergänzung ()

MasterAK schrieb:
Der Preis ist stark. Ebenfalls stark ist, das es 2x8 Pin Stecker bei beiden Karten sind. Leistung ist allerdings noch ein Fragezeichen. Raster ist schon gut einzuschätzen, RT eher noch nicht.

Irgendwie wundert es mich noch ein wenig, warum bei 140% mehr ALUs "nur" 50 - 70% Mehrleistung rauskommt.
Weil manche Gameengines oder CPUs limitieren.
Wenn Du die Graka nicht mit genug Daten versorgen kannst helfen auch 140% ALUs nicht. Das sieht man auch bei der 4090 bei einigen Spielen, wo die brachiale Anzahl der ALUs einfach wenig bringt.
Das wird sich erst bei neuen Spielen richtig zeigen, die dafür auch entwickelt wurden.
 
Eli0t schrieb:
Und bei welchen Spiel juckt der Lag nicht?
Bei ziemlich allem was kein Multiplayer auf hohen Level ist. Du kannst mir gerne viel erzählen, aber die Diskussionen um 10ms an irgendwelchen Input Lags sind schlichtweg lächerlich. Wen interessiert sowas bei einem Singleplayer Spiel?
 
  • Gefällt mir
Reaktionen: .Sentinel. und Laphonso
Irgendwo schrieb einer im Thread, dass sich Einstellungen im Treiber zurücksetzen und man die sinngemäß neu fummeln muss, wenn das Spiel abschmiert. Können das andere Leute bestätigen? Manchmal schmiert GTA5 mir ab, wenn auch selten und im Treiber habe ich ja Framelimiter oder Niedriglatenzmodus Ultra und ich habe Anisotropische Filterung an, weil vom Spiel selber ist das nicht doll. Bei AMD würde ich derartige Sachen auch anschalten.

Und falls jemand hier Minecraft zockt und zu zufällig irgendwas Richtung AMD 500 und 6000 hat, der kann vielleicht mal testen, ob der Grafikh*ren-ShaderTM vielleicht doch geht.
https://www.patreon.com/posts/download-seus-3-60268558
Kann man dort auch ohne Bezahlabo auf Patreon saugen.
 
FrAGgi schrieb:
Ich frage mich ja warum du sie dir überhaupt einen Tag vor dem Event noch geholt hast? 😅

FrAGgi schrieb:
das hier USD Preise ohne MwSt genannt sind. Da kostet die 4090 "nur" 1700 USD

yamaharacer schrieb:
Naja 19 Prozent Steuer kommen doch noch drauf.

Dann sieht es wieder anders aus.

Zwar günstiger als bei grün aber eben bei uns nicht mehr unter 1000€.
In den USA muss man auch VAT zahlen nur in jeder Region andere %. deswegen geben die Preise ohne Mehrwertsteuer an.

Die hohen Preise in EUR sind auch dem starken USD zu "verdanken"...
 
  • Gefällt mir
Reaktionen: Melmoth
Blumentopf1989 schrieb:
Die Gesamtmengen der 4090 und später dann auch 4080 sind ja auch nach wie vor verschwindend gering.
Das liegt einfach daran dass die 4090 Verkaufserwartungen komplett gesprengt wurden international.
Trotz des Preises ist die 4090 Nachfrage der komplette Wahnsinn, das Angebot war vorhanden:

https://wccftech.com/nvidia-has-shi...us-for-geforce-rtx-4090-graphics-card-so-far/

100.000 Units 4090er gingen in den Handel . WTF.
EINHUNDERTTAUSEND. Mindestens.
Wir sprechen also mal entspannt über 160 Millionen $ Umsatz mit der 4090, völlig irre.
Und das war die erste Charge.

Laut Reddit hatte Newegg alleine eine Allokation von über 10.000,
Dieser komplette 4090 Bestand wurde weg inhaliert in wenigen Stunden (Allerdings sprechen wir dort von Gesamtnordamerika)

Jetzt kommt die gebündelte Nachfrage des gesamten Warte-Blocks auf die HighEnd 7900er von AMD, da ahnt man nichts Gutes für die Preise.
 
Zuletzt bearbeitet:
Caramelito schrieb:
Ergibt die "kleine" Version überhaupt Sinn?
100usd, dafür ca. 24% weniger Tflops und weniger Vram?
Nein, Du sollst die 7900XTX kaufen.

Caramelito schrieb:
Nur die Verfügbarkeit wird interessant. Schätze halt, dass die Dinger wie warme Semmeln weggehen werden..

FSR 3.0 wird dann wieder open für alle sein?
Würde ja wieder die alte Gen pushen - Wäre auch nice!
Wenns funzt... die wollen ja auch frames einfügen... wer's braucht...
 
Dittsche schrieb:
Hoffe die AMDs werden gut verfügbar sein.
Ich glaube , sich auf den Worst Case einzustellen, ist im Moment die leider realistische Variante
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat und xexex
Mr_Cenk schrieb:
Langsam wachen die Leute auf dass die RTX 4090 erstmal für lange Zeit permanent ausverkauft sein wird.
Hm, ja klar, Wunschdenken, natuerlich gibt es RTX 4090 Karten noch weit unter 3000 Euro zu kaufen (und das Strix Custom-Modell ist angesichts der bisherigen Rezensionen und Kundenbewertungen auch nicht wirklich so die Empfehlung/lohnend bisher, wie es scheint) und mit der Zeit laesst die Nachfrage der nischigen Kaeufergruppen (Early Adopter und Hobby-Enthusiasten) nach, die bereit sind so viel Geld fuer eine "Gaming"-Grafikkarte auszugeben.

So zu tun, als ob eine RTX 4090 (Titan-Ersatzkarte) eine Mainstream-Gaming-Grafikkarte waere ist einfach nur laecherlich, aber es passt zum nVidia Marketing.

Die ersten Monate geht die Karte natuerlich wegen der o.g. Kaeufergruppen noch gut weg und nVidia wird auch in Anbetracht der mauen Verkaufsaussichten die Produktionszahlen und Modelle neuer Lovelace Karten niedrig halten (fuer die RTX 4080 16GB sollen die Produktionszahlen ja noch weit unter denen der RTX 4090 liegen; da wird man zwar DLSS3/RT-Raytracing Marketing betreiben um die Karten kuenstlich als bessere Alternativen zu den guenstigeren RX 7900XT(X) zu bewerben, aber zu kaufen duerfte es kaum welche geben aller Voraussicht/aktuellen Berichten nach ... damit ein Quasi-Paperlaunch?), um gleichzeitig die Preise (kuenstlich) hoch zu halten und nicht in die gleichen Probleme wie mit den komplett ueberteuert angebotenen Ampere Grafikkarten zu laufen (Verluste zu minimieren).

Expect Nvidia to keep production numbers low for this generation. It knows the whole Ada Lovelace series is onto a loser in terms of market conditions. That can't be helped. It's going to be tough for the next 18 months to two years, at least, whatever Nvidia does. So, it will likely keep volumes uncharacteristically low and try to maintain higher margins courtesy of short supply, the idea being to keep very high prices for the longer term and for future generations when the market has picked up again, even if sales of Ada Lovelace suffer. That makes sense given Ada Lovelace has the potential to struggle, whatever, thanks to all those external factors.

Dort ist man preislich nach dem Mining-Boom immer noch so abgehoben und glaubt auch im Markt leicht zu total ueberzogenen Preisen die alten und neuen Grafikkarten verkaufen zu koennen per Order Ihres Lederjacken-Gurus, aber so funktioniert der Markt in inflationaeren und rezessiven Zeiten leider nicht und nicht jede/r ist gewillt dieser Kryptominer-Preise ohne Mehrwert (damit wie beim Mining gut Profite generieren zu koennen) fuer Gaming zu zahlen. Vielleicht wacht ja Huang irgendwann einmal auf und kommt wieder in der Realitaet an.

Da kostet jetzt eine RTX 3080 mit 12 GB nahezu so viel wie eine RTX 3080Ti, ueber 100 Euro mehr als noch vor einem Monat (vielleicht sollen auch kuenstlich die Preise vor Black Friday/Cyber Monday angehoben werden, damit die Angebote dann besser aussehen?), absolut surreal und man glaubt dort die Leute fuer bloed verkaufen zu koennen ... hoffentlich bleiben nVidia und Haendler bei dieser miesen Preis- und Kundenpolitik auf Ihrer Ware sitzen :rolleyes:.

Wer so etwas noch mit dem Kauf von nVidia (Ampere und Lovelace) Grafikkarten wissend unterstuetzt, dem/der kann man auch nur noch wenig helfen; ich hoffe AMD/RTG wird gut Mindshare und Marktanteile jetzt mit RDNA3 von nVidia ernten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SH4DOWtheFOX
Chilisidian schrieb:
Eh ich glaube du hast da iwas nicht richtig verstanden:

1. FSR3.0 kommt irgendwann 2023, kann also auch erst in nem Jahr sein.
Nein erste Hälfte 2023.
Chilisidian schrieb:
2. DP2.1 braucht eigentlich niemand, der nicht mindestens in 5k mit 144hz spielen will (wofür die Karte zu lahm ist).
Selbst wenn mans nicht braucht, schadet es nicht, wenn man 4k 120Hz haben will.
Und zu lahm kommt wohl aufs Spiel an.
Chilisidian schrieb:
3. Die Karten haben kein PCIe 5.0.
Who carez, hat nvidia auch nicht.
Chilisidian schrieb:
4. Auch das Topmodell von Nv hat 24GB.
Ja, kostet trotzdem $600 mehr.
Chilisidian schrieb:
5. Das Gewicht des Kühlers ist noch gar nicht klar bei den Customs.
Das sind tw. adaptierte 4090 Kühler, weil warum 2x entwickeln... oder alte 69x0XT Kühler.
Und wiederum "who carez"?
 
Laphonso schrieb:
100.000 Units 4090er gingen in den Handel . WTF.
EINHUNDERTTAUSEND. Mindestens.
Wir sprechen also mal entspannt über 160 Millionen $ Umsatz mit der 4090, völlig irre.
Und das war die erste Charge.
Das schreibt ein Twitter User. Solange es nicht offiziell bestätigt ist, ist es Schall und Rauch. Digitec hat keine 30 Stück bekommen und in den nächsten 14 Tagen bekommen sie auch keine neuen.
Evtl. sind alle in der EU hängen geblieben.

@SVΞN wenn ich mich recht entsinne, hast du geschrieben, dass du gut an 4090er Karten kommst, gibt es verlässliche Quellen, z.B. für Deutschland, wie viele da über die Ladentheke gehen?

Ich kann mir nicht vorstellen, dass die Nachfrage alles übertrifft, was man erwartet hat. Wenn es aber so sein sollte, Chapeau!
 
Zurück
Oben