Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

MarcoHatFragen schrieb:
Finde es erschreckend das viele die Preise gut finden, nur weil Nvidia viel teuer ist. Beides ist viel zu teuer und müsste maximal bei 500 Euro liegen.

das ist einfach nichtmehr drin alleine als Beispiel der Chip der 4090 kostet bei TSMC 400$+Platine+Ram(ich hab ka was der VRAM kostet)+Kondensatoren und das andere Zeug was da drauf ist sind wir bei ca 600$+ Herstellungskosten, dann werden die Forschung&Entwicklungskosten draufgeschlagen usw. und dann für 500€ verkaufen ist einfach nicht drin.
 
  • Gefällt mir
Reaktionen: Mr_Cenk, ichnunwieder, TheRealRayden und eine weitere Person
MehlstaubtheCat schrieb:
Bissel mehr als 1000Euro :D Mega!
Dollar zu Euro Kurs + Tax!
Ähm bissel mehr finde ich 1300-1400€ nicht…. Viele vergessen das die Preise von 1:1 lange vorbei sind.

Dollar - Euro Kurs liegt bei 0,976 zu 1 das sind bereits mehr als 1000€ dann noch 19% Mwst. sind schon rein 1200€ rein vom umrechnungsfaktor… da kommen dann noch durch allgemein schlechtere EU Preise noch 100€ drauf und durch Custom Modelle nochmal 100-200€ und dann liegt man bereits bei 1400-1500€ (bei guter Verfügbarkeit ohne Scalping) also erstmal abwarten und nicht gleich denken das die Karten für 1000€ zu haben sind.
 
  • Gefällt mir
Reaktionen: RogueSix
javaw_2022_11_04_03_22_55_476.jpg
Solche FPS kommen dabei raus, wenn man den Grafikh*ren-Shader auf die RTX2080S knallt. Der Shader benutzt Fake-Raytracing, wobei das in dem Fall Pathtracing ist. Läuft sowas über Raster? Welche Architektur könnte da bei bisherigen Daten da für den Shader besser sein? Wobei ich gerade noch sehe, dass die auf AMD noch nicht gehen sollen, je nachdem wie alt die Beschreibung ist. Wäre natürlich besch*ss*en, wenn es auch auf der 7900er nicht geht.
 
ichnunwieder schrieb:
von "in der Mache" kann ich mir nix kaufen, seeing is believing. da bin ich doch mal noch sehr gespannt ob/was da noch aus der "Mache" kommen wird. 😊
DLSS3 in CP2077 wurde auch prominent gezeigt und ist nicht verfügbar.
AMD hat halt noch nichts vorzeigbares, aber wenn man sieht wie gut FSR2 geworden ist...
Und wegen 2-3 Spielen ist DLSS 3 aktuell noch kein Kaufgrund
 
  • Gefällt mir
Reaktionen: DF86 und Legalev
Easy1991 schrieb:
Wegen Monitor einschränken lassen? Viele Gsync monitore können auch freesync.
Mein 3440x1440 x34 Acer Predator leider nicht... der schafft 100Hz ausschliesslich Gsync. Wichtig wäre mir, dass ich die meisten Spiele dann mit vollen 100FPS laufen lassen kann auf sehr hohe Einstellungen. Das sollte mir noch die nächsten 2-3 Jahre genügen. Dann wandert das ganze Setup zu meiner Partnerin und ich hol mir dann einen neuen 4K Monitor und neuen PC, wenn die Hardware Preise für 4K im Mainstream angekommen sind. Soweit der Plan...

Die 7900XTX oder XT erachte ich hierfür eben als die bessere Karte, aber da kein Freesync.. merde :)
 
Mir kam eben ein Gedanke: Warum verliert die 4090 bei 300W oder 350W gegenüber der TDP von 450W gerade mal max. 10%. Genau, Nvidia hat eventuell mitbekommen, dass die AMD-GPU mehr Leistung bringt als gedacht und hat mal eben schnell die eventuell angedachten 350W-Betrieb auf 450W erhöht.
Effizienz egal, Hauptsache man kann sich das Siegertreppchen sichern.
Wäre AMD nicht so nah dran, dann hätte sich Nvidia auch für Effizienz out of the box feiern können.
Klar, Watt/FPS ist die 4090 immer noch sehr gut, aber die 100-150W oberdrauf waren unnötig.
 
  • Gefällt mir
Reaktionen: Hate01
r3ptil3 schrieb:
Wieso freut ihr euch alle?

999$ bedeuten 1500+ Euro in Deutschland und die 7900 XTX ist zudem deutlich hinter einer RTX 4090.
Kann man stark von ausgehen.
Die erste Seite hier ist Comedy Pur. "Krasse Preise". Man könnte meinen AMD haut hier für 500€ High End Karten raus.
 
  • Gefällt mir
Reaktionen: CrustiCroc, Beatmaster A.C., cbmik und 2 andere
Eidgenosse schrieb:
Mein 3440x1440 x34 Acer Predator leider nicht... der schafft 100Hz ausschliesslich Gsync.

Habe auch ein Downgrade vorgenommen, von G-Sync auf Freesync. Nachteile sind halt, dass es kein adaptives Overdrive gibt und es bereits in der Nähe vom LFC-Übergang LFC-Stutter gibt, wenn man dort einen Framelimiter setzt. Ersteres ist zum Glück kein Thema mehr, dank Fast-IPS mit vernünftig eingestellten Overdrive (deshalb LG), ohne unten rum eine Overshoot-Hölle zu haben. Zweiteres gibt es beim Nvidia-Modul nicht und bei ersterem sind sogar alte Panels noch nutzbar, weil unten Overdrive schwächer eingestellt ist, um Overshoot zu verhindern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eidgenosse
Eidgenosse schrieb:
Mein 3440x1440 x34 Acer Predator leider nicht... der schafft 100Hz ausschliesslich Gsync. Wichtig wäre mir, dass ich die meisten Spiele dann mit vollen 100FPS laufen lassen kann auf sehr hohe Einstellungen. Das sollte mir noch die nächsten 2-3 Jahre genügen. Dann wandert das ganze Setup zu meiner Partnerin und ich hol mir dann einen neuen 4K Monitor und neuen PC, wenn die Hardware Preise für 4K im Mainstream angekommen sind. Soweit der Plan...

Die 7900XTX oder XT erachte ich hierfür eben als die bessere Karte, aber da kein Freesync.. merde :)

Du bist schlauer, als dass du dich von Nvidia in ihrem Öko-System einsperren lässt. Verkauf den Monitor und gut ist. Wer sagt denn, dass man einen Monitor jahrelang halten muss. Wenn der Preis der Radeon stimmt und der Wertverlust beim Monitorverkauf sich in Grenzen hält, dann sollte dich nichts aufhalten.
Ausser, Agenten von Nvidia bekommen von deinen verräterischen Plänen was mit.
Dann kann ich mir sehr gut vorstellen, dass du als Überläufer weltweit gejagt wirst.

Wegen G-Sync. Ich kann froh sein, dass aktuell mein 360Hz-Dell auch freesync kann. Habe eine 6700XT.
Die Revisionen davor können nur G-Sync. Das mit dem LFC-Stutter ist natürlich sub-optimal, aber mit wie wenigen FPS zockt du denn? Wann fängt bei dir LFC an? Da muss eben eine schnellere GPU her, damit du nicht mehr in die Nähe von LFC kommst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eidgenosse
5hred schrieb:
Mir kam eben ein Gedanke: Warum verliert die 4090 bei 300W oder 350W gegenüber der TDP von 450W gerade mal max. 10%. Genau, Nvidia hat eventuell mitbekommen, dass die AMD-GPU mehr Leistung bringt als gedacht und hat mal eben schnell die eventuell angedachten 350W-Betrieb auf 450W erhöht.
Effizienz egal, Hauptsache man kann sich das Siegertreppchen sichern.
Wäre AMD nicht so nah dran, dann hätte sich Nvidia auch für Effizienz out of the box feiern können.
Klar, Watt/FPS ist die 4090 immer noch sehr gut, aber die 100-150W oberdrauf waren unnötig.
Ne das glaube ich nicht, die TDP von 450W war ja schon bekannt da gab es die 3090Ti nicht mal, und da die 3090Ti der Test für die 450W Kühler war wurde das bereits einberechnet. Nvidia wollte eben das „maximal mögliche“ wie bei der 3090Ti mit 450W rauskitzeln daher wurde das was möglich ist ebenf auch durchgeführt. Sonst hätte man doch nie eine 3090Ti rausbringen müssen wenn nicht von vornherein klar war wir können den Chip 450W ziehen lassen.

Die 4090 ist quasi eine 3090 Ti obwohl bei 3080Ti mit 100W weniger kaum langsamer ist. Mir wäre es aber auch lieber gewesen die 4090 wäre im sweetspot bei 70%PT also 350W Released worden und eine 4090Ti wäre dann die 450W Version geworden…. So wird eine 4090 Ti dann wohl die 600W Versionen werden.
 
Zuletzt bearbeitet:
Replay86 schrieb:
Kann man stark von ausgehen.
Die erste Seite hier ist Comedy Pur. "Krasse Preise". Man könnte meinen AMD haut hier für 500€ High End Karten raus.

Jo, wie ich auch schon sinngemäß sagte, dass ich da keine große Begeisterung habe. Aber vielleicht kann man hoffen, dass es irgendwo die XTX doch für ~1200 Geldtaler gibt.
 
DrFreaK666 schrieb:
Und wegen 2-3 Spielen ist DLSS 3 aktuell noch kein Kaufgrund
kommt drauf an was man eben spielt. für den MSFS2020 gibts DLSS3, die anderen Spiele sind mir egal, außerdem sind es nicht 2-3 sondern mehr als das zehnfache, 35:

"Nvidia’s next-generation supersampling will now total 35 titles, eight of which are already available. "

Over 35 Games And Apps Adding NVIDIA DLSS 3 & Many More To Come​


NVIDIA DLSS 3 has just been announced, and already we have over 35 games and apps coming with support, the first of which launch in October:
 
  • Gefällt mir
Reaktionen: CrustiCroc und TheRealRayden
Kb1 schrieb:
RT ist so lächerlich überbewertet, schon krass wie nvidia da die Leute gebrainwasht hat.

Früher konnten die Spiele gewisse Effekte ganz ohne RT darstellen. Mit massig fps.
Jetzt sind die Entwickler so faul, dass man RT braucht.
 
  • Gefällt mir
Reaktionen: Legalev, Beatmaster A.C. und itsDNNS
Die Benchmarks von AMD wurden bei 300W gemacht, die XTX hat aber eine TBP von 355W.

Je nachdem wie gut sie skaliert, kommt da noch etwas drauf.
 
Zenx_ schrieb:
999$ für ne Karte, die so stark ist wie eine RTX 4090
Das glaube ich jetzt nicht mehr bei dem Preis. Wäre die 7900XTX auf 4090 Level, hätte AMD dich bestimmt locker 1,4K verlangen können und die Karte hätte sich verkauft...
 
ichnunwieder schrieb:
ür den MSFS2020 gibts DLSS3
für Spiele, die im CPU-Limit kleben, ist DLSS 3 ne super Sache. Allerdings fraglich wieso man das bei einer 2000+ Grafikkarte benötigt.
Wirklich interessant wird es wie es auf 4070 und darunter performt.

Hätte nicht erwartet, dass AMD etwas ähnliches anteased. Aber AMD hat insgesamt viel Arbeit in Software investiert. 2023 scheinen ein paar Sachen zu kommen
 
  • Gefällt mir
Reaktionen: TheRealRayden
DLSS3 muss sich bessern, habe keine Lust auf Bild-Artefakte und eine erhöhte Latenz. Echte Frames FTW.
PCGH hat mal DLSS3 angetestet. Ist zwiegespalten: einerseits werden deutlich mehr frames dargestellt, andererseits fühlt sich das Gespielte nicht so snappy an, da mehr Latenz im Spiel ist.
Mal schauen, wie AMD mit FSR3 die Frames einfach mal so verdoppeln will. Gibt bestimmt auch einen Haken bei der Sache. Eventuell der gleiche Ansatz, was DLSS3 macht. Unterstützt von dem AI Accelerator der GPU.
 
  • Gefällt mir
Reaktionen: Celinna
5hred schrieb:
Das klingt eigentlich gar nicht mal so schlecht. Ich könnte mir dann einen 38Zoll Monitor mit 3840x2160 holen. Die 7900XTX sollte das ja packen, oder was denkt ihr dazu?

Was meint ihr genau mit LFC? Ich bin schon davon ausgegangen, dass Freesync als vollwertiger Ersatz für Gsync gilt. Oder gibts da Nachteile zu Gsync? Bisher hab ich in Lutris immer die FPS begrenzt und kein Vsync oder dergleichen eingesetzt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: derbe, Illithide und Banger
Hmmmmm schrieb:
Ich hatte eine 290 und hunderte black screens vor 5 Jahren.
Interesssant. Hatte damals auch eine 290 und nicht ein einziges Treiberproblem. Bei nVidia eigentlich auch nie, bis vor kurzem. Ich musste das Overlay von GeForce Experience ausstellen, hat sich immer aufgehangen.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Zurück
Oben