Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Leonidas von 3dcenter hat es wiedereinmal auf den Punkt gebracht...

Interessant ist die RT Nähe zur unlaunched 4080 12G... Denke da hat nv rausgefunden das die 4080 12G im raster deutlich verliert... Und die Karte deswegen gekillt wurde.

Mfg
 
Chilisidian schrieb:
Ich würde unterstellen, dass Gaming schon ein recht großes Hobby ist, wenn man auch nur daran denkt eine GPU für 1.400 EUR zu kaufen (XTX). Zumal keiner, der Vollzeit arbeitet und einen Partner/Kinder hat, zig Stunden für jedes weitere Hobby hat.
Also ich habe für Musik weniger Zeit als ich Zeit finde zum zocken (leider), trotzdem überlege ich ernsthaft deutlich mehr als nur 1400€ für den nächsten Bass oder den nächsten Amp auszugeben. Ok, die nächsten zwei Gitarren mit dehnen ich liebäugle kosten nur 666 bzw 1000€ ;-)
Zeit ist da sicher nicht der Faktor der bei den meisten entscheidet, sondern wieviel Geld man zum verjuxen über hat und ob man eben für sein Geld einen Gegenwert an Spaß, Lebensfreude oder wie auch immer du es nennen willst bekommt. Also eben wie die Alternativen beim Freizeitangebot aussehen und wie leer das Konto von diesen Alternativen bereits ist. Gaming hat bei vielen halt einfach keinen so hohen Stellenwert, selbst bei dehnen die 1500€ für eine GPU ausgeben.
Scheint meine Frau ähnlich zu sehen, die spielt dieser Tage vielleicht 40 Stunden, vielleicht auch 80 Stunden IM JAHR, und hat trotzdem jetzt 700€ für eine neue GPU ausgeben, weil wenn man nur noch so wenig Zeit zum spielen hat, dann doch wenigstens bitte mit hübscher Grafik.

Ausgenohmen sind davon aber explizit die "pro gamer" die halt wirklich viel Zeit ins Hobby stecken, da ist das Limit sicher so hoch, wie die finanziellen Möglichkeiten eben hergeben, war damals bei mir als Teenager ja nicht anders. Da bin ich dann durchaus bei dir, wer sonst keine anderen Hobbies hat, der zahlt auch nochmal einen kleinen Batzen drauf, wenn es halt hilft da hin zukommen wo man hin will.
 
branhalor schrieb:
50-70% Mehrleistung gegenüber der 6950 XT nennst Du "wenig Mehrleistung"...?!? 😳
Das ist je nach Spiel nicht unbedingt soo viel weniger als bei der 4090 - die hat auch "nur" 80% Mehrleistung.

Dafür kriegste die 7900 XTX aber für etliche Hundert Euro weniger!
....
50% in den meisten Spielen und nur in einer Technikdemo 70% find ich für ein Flaggschiff, im Verhältnis zur 4090 schon nicht viel. Letztlich muss man mal reale Benchmarks abwarten, wenn die NDA endlich fallen. Mit den Preisen würd ich abwarten. Unter 1300 wird die XTX eher nicht über die Ladentheke gehen. Wenn die wirklich so nah an die 4090 kommt, wird sich sicher der Preis der 4090 nach unten korrigieren müssen. Oder die Händler machen die XTX einfach teurer wegen der "Nachfrage" :)

Und dann bin ich auch auf die Effizienz gespannt. Immerhin nutzt die 4090 teilweise ja nicht mal die PL aus. Ob das dann bei der RX7000 sich auch so verhält bleibt abzuwarten.
 
anappleaday schrieb:
Warum hört das Rechnen plötzlich auf?
1950€ (UVP Nvidia FE) - 1300€ (UVP AMD) = 650€ Unterschied.

Aber eh egal, Fanboy War hat gestartet, Logik ist jetzt völlig egal.

Blut für den Blutgott! Let the War begin!🩸 🩸 🩸
Die sind so. Eigentlich bereiten die uns ne Menge Spaß.
Ergänzung ()

Rockstar85 schrieb:
Ich kann rechnen... Du scheinbar nicht. Also lassen wir das. Beschwer dich bitte bei deinem 4090 Hersteller.
Und ja Trolle sollte man echt nicht füttern. Wie aber 999 USD plötzlich 1500€ werden, kannst du mir ja gerne mal vorrechnen.. Ich bin gespannt.

Ich weiß auch, was 61TFLOPs Rasterleistung heisst, denn RDNA3 ist halt wunderbar vergleichbar..
Also reden wir hier von Konservativen Rechnungen.
Wie wurden denn aus 1699 USD plötzlich 2699€ für die 4090 Einstein?
 
  • Gefällt mir
Reaktionen: anappleaday und FreedomOfSpeech
Eidgenosse schrieb:
Mein 3440x1440 x34 Acer Predator leider nicht..
Der Monitor hat doch adaptive sync?? Zumindest nach acer

AMD FreeSync unterscheidet sich nicht von VESA Adaptive Sync. Es nutzt die lizenzfreie Technologie von VESA, um die Bildwiederholrate mit den FPS zu synchronisieren. Da AMD auf Lizenzgebühren verzichtet hat, können Hersteller von Monitoren diese Technologie verbauen, ohne dafür zahlen zu müssen.

LG
 
xexex schrieb:
, für dich sehen Spiele scheinbar auch jetzt schon alles gut genug aus. Blöd nur, das die Realität dann doch sehr weit entfernt ist, von dem was wir auf dem Bildschirm sehen.
Na wenn das Ziel ist möglichst realistische Grafiken auf den Bildschirm zu zaubern werden wir noch ein dutzend Gen warten müssen, bis wir der Realität nahe kommen. Ob das mit dem Verbrauch dann noch verhältnismässig ist oder der Monitor noch das passende Ausgabegerät sein wird, ist die andere Frage.

Also das interessiert mich wirklich nicht. Hauptsache hübsch....
 
Zuletzt bearbeitet:
CrustiCroc schrieb:
Die sind so. Eigentlich bereiten die uns ne Menge Spaß.
Ergänzung ()


Wie wurden denn aus 1699 USD plötzlich 2699€ für die 4090 Einstein?
Indem Nvidia absichtlich die Katen verknappt, um seine alten Karten loszuwerden. AMD wird sicherlich genau das Gegenteil davon tun, was der aktuellen Strategie auch entsprechen würde. Scalper sind egal, wenn es genug verfügbare Karten auf dem Markt hat.

Scalper wird wohl mehr ein Nvidia Phänomen sein.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech und Malustra
CrustiCroc schrieb:
Wie wurden denn aus 1699 USD plötzlich 2699€ für die 4090 Einstein?

1. 1599 Dollar nicht 1699
2. Es wurden 1949€ daraus nicht 2699€ (Das sind die Custom Preise und dank Scalper)
3. Wenn man die Umrechnung von 1599 Dollar zu 1949€ nimmt, sind 999$ stand jetzt 1250€.

Einfach mal richtig rechnen :)
Wenn AMD 999 Dollar sagt dann sind es auch 999 Dollar.
Und dann können es keine 1500€ sein. Sonst sind es keine 999 Dollar, Ende.
Es liegt einzig allein an der Umrechnung und Kurse.
 
Easy1991 schrieb:
Der Monitor hat doch adaptive sync?? Zumindest nach acer

AMD FreeSync unterscheidet sich nicht von VESA Adaptive Sync. Es nutzt die lizenzfreie Technologie von VESA, um die Bildwiederholrate mit den FPS zu synchronisieren. Da AMD auf Lizenzgebühren verzichtet hat, können Hersteller von Monitoren diese Technologie verbauen, ohne dafür zahlen zu müssen.

LG
Was heisst das nun konkret? Adaptive Sync eliminert doch nur das Tearing indem es Frames verwirft aber nicht, wenn die Frames unter die 100 Hz des Bildschirms fallen, die dann halbiert werden? Somit kann Adaptive Sync Gsync oder Freesync nicht das Wasser reichen?

Oder seh ich das falsch?
 
Malustra schrieb:
1. 1599 Dollar nicht 1699
2. Es wurden 1949€ daraus nicht 2699€ (Das sind die Custom Preise und dank Scalper)
3. Wenn man die Umrechnung von 1599 Dollar zu 1949€ nimmt, sind 999$ stand jetzt 1250€.

Einfach mal richtig rechnen :)
Wenn AMD 999 Dollar sagt dann sind es auch 999 Dollar.
Und dann können es keine 1500€ sein. Sonst sind es keine 999 Dollar, Ende.
Es liegt einzig allein an der Umrechnung und Kurse.
Deine Rechnung ist, sorry einfach nur lachhaft. Es macht aber mit dir auch keinen Sinn. Du bist Nvidia Hater erster Güte. Ist okay.
 
Laut TechPowerUp sollen die Customs bis zu 3GHz schaffen. Damit wären sie vor der 4090, allerdings auch beim Verbrauch ;-)

Blumentopf1989 schrieb:
dass der Eurokurs sich erholt und laut Analysten weiter erholen soll
Wüsste nicht wieso. Die Deindustrialisierung Deutschlands schreitet voran, Pleitewelle rollt übers Land und die FED erhöht die Leitzinsen drastisch, was die EZB nicht kann weil dann die Südstaaten quasi sofort pleite wären.
Die Ursachen der Energiekrise werden nicht angegangen, sondern weiter Steuergeld für "Entlastungspakete" verbrannt, was den Schuldenstand und die Inflation weiter antreibt. Ich gehe eher von 1.10€ für 1.00$ aus.
Ergänzung ()

Eidgenosse schrieb:
Adaptive Sync eliminert doch nur das Tearing indem es Frames verwirft
Es verwirft keine Frames, alle werden SYNCRON zum Monitor geschickt.
 
  • Gefällt mir
Reaktionen: WommU und Eidgenosse
CrustiCroc schrieb:
Deine Rechnung ist, sorry einfach nur lachhaft. Es macht aber mit dir auch keinen Sinn. Du bist Nvidia Hater erster Güte. Ist okay.
Dann zeig mir doch wie die Rechnung richtig geht. Das ist so ein typischer Fanboy Kommentar.
Ich weiß ich habe Unrecht, aber muss jetzt irgendwas schreiben, um es nicht zuzugeben mimimi.
Schon mal was von Dollar Eurokurs Umrechnung gehört? Wie kann aus $999 UVP 1500€ werden.
Erklärs mir. Vor allem wie AMD das dann rechtfertigt.
 
IronAngel schrieb:
Gegen eine 4090 wird die Karte keine Chancen haben, stimme ich zu. Aber das ist auch eine andere Preisklasse.

Die 4080 sollte man aber teilweise schlagen. Oder warum glaubst du hat Nvidia die 4080 12 gb gecancelt und die 4080 16 gb verschoben ? Meine Vermutung ist, Nvidia hatte Insider Informationen. Ich glaube hätte Nvidia die 4080 12 Gb so released wie geplant, hätten selbst die Fanboys sie ausgelacht. Dafür bedarf es nicht mal AMD.

Ich würde jetzt erstmal Tests abwarten. Momentan ist alles möglich, von Top zu flop. Hängt von ab ob die Shader richtig ausgelastet werden können.
Eigentlich wäre die umgekehrte Betrachtung eher logisch. AMD konnte die Konkurrenz sehr genau beobachten (4090) bis gestern und auch anhand der Daten der 4080 ihre XTX ganz genau leistungstechnisch und preislich einordnen. Auch der Preis der 4080 16GB war AMD ja schon bekannt. Somit gehen ich anhand dieser Sachlache davon aus, dass AMD auch der 4080 unterlegen sein wird. Wenn die Karte gleichwertig oder besser wäre, dann wäre es doch nur logisch, den Preis ebenfalls exakt oder nur knapp unterhalb der 4080 anzusiedeln. Ich lasse mich gerne überraschen und bin da total uneingenommen. Ist nur meine persönliche Beurteilung der Sachlage.
 
Eidgenosse schrieb:
wenn die Frames unter die 100 Hz des Bildschirms fallen, die dann halbiert werden?
Das macht VSync.
 
Malustra schrieb:
Wie kann aus $999 UVP 1500€ werden.
Ca. 1250€ wegen Dollar vs. Euro und MwSt. Also im AMD Shop für Deutschland bzw. Referenzkarten bei den Händlern 1.249€ oder so. Custom-Modelle wie die TUF OC dann Richtung 1.499€. Bei 3GHz aber auch gerechtfertigt.
 
  • Gefällt mir
Reaktionen: Malustra
FreedomOfSpeech schrieb:
Es verwirft keine Frames, alle werden SYNCRON zum Monitor geschickt.
Was passiert, wenn die Frames unter die 100 Hz fallen mit Adaptive Sync? Werden diese dann nicht halbiert, was bei Gsync nicht der Fall ist?
 
FreedomOfSpeech schrieb:
Ca. 1250€ wegen Dollar vs. Euro und MwSt. Also im AMD Shop für Deutschland bzw. Referenzkarten bei den Händlern 1.249€ oder so. Custom-Modelle wie die TUF OC dann Richtung 1.499€. Bei 3GHz aber auch gerechtfertigt.
Genau das sagte ich oben auch.
Wenn ich die Umrechnung von 1599 zu 1949 nehme, also die prozentuale Differenz, dann lande ich eher bei 1250€. Und wenn die 999 Dollar keine Lüge waren, dann wird das auch der UVP Preis im AMD Shop sein :)
 
Beteigeuze. schrieb:
Dass hast du unserer Gelddruckmaschine namens EZB zu verdanken
Hättest Mal lieber Bitcoin gekauft

Ja, die gute alte EZB und ihre verurteilte Chefin.
Abseits davon hast du recht. Ist nur die Frage inwiefern das noch Bestand hat in den nächsten Jahren.
Nicht, dass sich hier plötzlich vieles ändert, sie wie die Farbe von Beteigeuze, zum Beispiel.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Zurück
Oben