Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Laphonso schrieb:
ie 7900er Customs werden so 1300-1500 Euro kosten und die4080er customs so 1700 bis 2000 Euro.

Ich muss schon lachen, während ich das schreibe, das sind so kranke Preise 🤣

Da stimme ich dir zu, oder wie man heute neudeutsch sagt "das fühle ich".:lol: Aber diese Karten brauchen nur sehr wenige, wenn man sich die Steam Charts anschaut.
Es werden nicht wenige auch diese Karten hauptsächlich wegen AV1 zur Arbeit nutzen und da ist dieser Preis zweitrangig.

Also ist das eher ein Luxusproblem. Die breite Masse kauft Karten bis 500€. Für FullHD Gaming, was ja die meisten noch machen, ist auch eine AMD RX 6600 (270€) noch völlig ausreichend und bezahlbar.
Wenn man sich die gaga Preise der high end Fraktion anschaut, sowieso.:)
 
  • Gefällt mir
Reaktionen: muvmend
RAZORLIGHT schrieb:
Würde Sinn machen, wenn die Lager voll mit Lovelace wären, aber Nvidia will Ampere loswerden
Zunächst einmal kann es Nvidia eigentlich egal sein, ob sie nun die neuen 4000er oder die 3000er Karten verkaufen, trotzdem haben sie mit der 4090 nun gut zwei und mit der 4080 einen Monat den Markt für sich alleine und haben passend zum Weihnachtgeschäft aktuelle Produkte.

Du darfst es auch anders sehen, die 3090Ti wildert zum Beispiel aktuell genau in dem gleichen Preispunkt den AMD mit den kommenden Karten anvisiert. Sie bietet weniger Leistung, das dürfte klar sein, sie ist aber breit verfügbar, während die AMD Karten auf dem Papier existieren und "irgendwann" auf den Markt kommen werden.

"Irgendwann" kann man Geschenke aber schlecht kaufen, man kauft sie möglichst rechtzeitig. Die Aufmerksamkeit rechtzeitig auf sich zu ziehen und GPUs zum Weihnachtfest auf den Markt zu bringen, hat AMD also völlig verpasst.
 
  • Gefällt mir
Reaktionen: bensen
  • Gefällt mir
Reaktionen: Laphonso
Taxxor schrieb:
Raus kamen 54% also ist sie mit 300W nur noch 45% schneller als eine Stock 6950XT.
Ich habe gerade ein Déjà-vu.
Ist das nicht genau das, was ich dir vor einigen Tagen vorgerechnet hatte und du meintest, dass es nicht stimme?
 
Ich kann mich nicht erinnern, dass du mir was zur Performance der XTX bei 300W vorgerechnet hättest.

Die Rechnung, wenn man die Perf/W nicht mit der 6900XT sondern mit der 6950XT macht, hatte ich hingegen selbst aufgestellt und die kommt auch aufs gleiche raus.

Daher wundert es mich auch, warum AMD es so komisch gemacht hat, man hat die PErformance überall mit der 6950XT verglichen, nur für die PErf/W ist man auf die 6900XT gegangen.

Denn +54% Perf/W kämen, wenn man die 7900XTX mit 355W gegen die 6960XT mit 335W stellt, fast genau so raus, wie wenn man sie auf 300W limitiert und dann gegen die 6900XT stellt.
 
Das hatte AMD halt bisher noch nie so gemacht, daher bin ich nicht davon ausgegangen, dass sie es nun plötzlich so machen würden. Zumal du in dem Post behauptet hast, dass RDNA2 bei 300W limitiert, was nicht stimmt, die 6950XT liegt bei 335W.

Für RDNA1 wurde die 5700XT mit 225W gegen die Vega64 mit 300W gestellt.
Für RDNA2 wurde die 6900XT mit 300W gegen die 5700XT mit 225W gestellt.
Deshalb hatte ich ja darauf geantwortet
Taxxor schrieb:
Du vergleichst für die Perf/W nicht die gleiche Wattzahl sondern du vergleichst die Karten so wie sie auf den Markt kommen.
Weil AMD das bisher immer so gemacht hatte.

Und hätte man für RDNA3 die 7900XTX mit 355W gegen die 6950XT mit 335W gestellt, wäre man bei +52% Perf/W rausgekommen(bei angenommener 60% Steigerung ggü dieser), daher ist es auch so komisch, dass man den Umweg über ein Limitieren der Karte und den Vergleich mit der 6900XT gemacht hat, bei dem fast das gleiche rauskommt.

Naja immerhin ist die Zahl dadurch nicht extrem geschönt, sondern nur 2 Prozentpunkte besser, als beim direkten Vergleich von 7900XTX und 6950XT. Hätte AMD die Zahlen wirklich stark schönen wollen, hätte man sie auf 335W limitieren können und dann mit der 6950XT vergleichen, dann wären über 60% rausgekommen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
CrustiCroc schrieb:
Phil findet die Vorstellung unverschämt und nichtssagend.
Raff ist Sinngemäß vom Leistungssprung in 2 Jahren geradezu enttäuscht.
Nur um das mal einzuordnen.
Die können labern was sie wollen. Am Ende entscheide ICH was ich kaufe mit meinem Geld. Mich interessieren auch nur harte Fakten und Messungen die ich mir am liebsten von mehreren Seiten hole (wie immer an der Stelle eine Hoch auf das 3D Center und ihre Launch Reviews um sich ein umfassendes Bild zu machen).
Die Interpretation der Fakten und Messungen interessieren mich dabei echt nen Sch... Das mach ich dann schon selbst da brauch ich auch keinen "Guru". Kann selbst denken.
 
  • Gefällt mir
Reaktionen: mazO!, PegasusHunter, Illithide und 4 andere
999$ für die 7900 XTX bedeuten dann wohl in etwa 1500€ für Custom Modelle. Die 4090 hat auch eine msrp von 1500 oder 1600$ und kostet zwischen 2200 und 3000€. Denke die 1500€ sind dann schon realistisch. Ich hoffe, dass es in ein paar Monaten dann welche für 1200€ gibt. Ich wäre aber auch positiv überrascht, wenn es weniger wäre.
 
Blumentopf1989 schrieb:
Hm ja aber davon sind nicht viele in Deutschland angekommen, hier waren sie ja mitunter binnen Minuten ausverkauft.
Es gibt noch 4090er, jedoch scheint vorallem die Strix sehr begehrt zu sein.

@Laphonso da wir gerade eine 4090 suchen. Weshalb bevorzugst du die Strix?
 
Taxxor schrieb:
Daher wundert es mich auch, warum AMD es so komisch gemacht hat, man hat die PErformance überall mit der 6950XT verglichen, nur für die PErf/W ist man auf die 6900XT gegangen.
Ich hab eher das Gefühl, dass da wieder der Praktikant die Messungen und Folien machen sollte und der nicht wusste, was er da wie misst.

Ich muss aber allgemein sagen, dass weder AMD noch NVIDIA sich aktuell, was ihre Präsentationen, mit Ruhm bekleckern und beide Hersteller kaum mit greifbaren Zahlen in den Präsentationen hantieren, sondern irgendwie alles hinter FSR 2/DLSS 2 und FSR 3/ DLSS 3 verstecken. Um mehr Fortschritt zu suggerieren, als wirklich vorhanden ist.

Ohne jetzt die 60 - 80 % bei ADA schlecht zu reden, genauso wenig sind die 50 - 70 % bei AMD schlecht, aber sowohl NVIDIA als auch AMD scheinen aktuell irgendwie die Spieler für "Doof" zu verkaufen, mit dem, was sie zeigen.

Dai6oro schrieb:
Das mach ich dann schon selbst da brauch ich auch keinen "Guru".
Ach, das mit den Experten ist immer so eine Sache. Ein Journalist kann auf seinem Gebiet ein Experte sein, er muss es aber nicht.

Aber in dem Fall: Wenn man sich den Text der Redakteure der PCGH durchliest, dann ist das nicht so "enttäuscht" wie hier gerade dargestellt wird.

Die Kritikpunkte kann ich nachvollziehen, AMD ist - aber ähnlich wie NVIDIA - dieses mal sehr wage geblieben und man hat viel mit FSR2 "versteckt", gleiches gilt aber auch für die Präsentation von NVIDIA. Da wurde ja auch viel hinter DLSS 2 und DLSS 3 versteckt.

Ich bin ja gespannt, was in 2 Jahren von AMD und NVIDIA und Intel kommt, wenn die nächsten Generationen anstehen und wie viel da dann verschleiert und versteckt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, piccolo85, Mayima und eine weitere Person
Syrato schrieb:
Es gibt noch 4090er, jedoch scheint vorallem die Strix sehr begehrt zu sein.

@Laphonso da wir gerade eine 4090 suchen. Weshalb bevorzugst du die Strix?
Alle MSI und Asus Karten, dazu die Aorous von Gigagyte, die anderen sind eher unbeliebt.
 
Jetzt braucht es nur noch AAA-Titel die es auch Wert sind gespielt zu werden, denn für gute Indie-Games reicht auch alte Hardware.
 
  • Gefällt mir
Reaktionen: Mayima und Silencium
Laphonso schrieb:
100.000 Units 4090er gingen in den Handel . WTF.
EINHUNDERTTAUSEND. Mindestens.

Das steht da nicht, sondern die Zahl spiegelt lediglich die produzierten GPUs wieder. Wie viele GPUs dann über die Boardpartner in den Handel kamen, steht dort nirgends. Das könnten nur die Händler sagen. Über die verkauften Einheiten sagt das nichts aus. Steht aber auch so im Text in der Quelle.
 
  • Gefällt mir
Reaktionen: Illithide, Rockstar85 und Laphonso
RogueSix schrieb:
Dies ist komplett falsch und erstaunlich, dass dieser Unsinn immer noch wiederholt wird. Ray-Tracing ist kein "Gimmick", sondern die Renderingtechnik der Zukunft, auch wenn dies noch lange dauern wird bis wir so weit sind, dass RT das Rasterizing ersetzen kann.

Um es hoffentlich mal etwas anschaulich zu erklären, auch wenn ich fürchte, dass dies bei Leuten, die RT immer noch für ein "Gimmick" halten, vergebene Liebesmüh ist:

Ray-Tracing ist die Simulation sichtbaren Lichts. Was wir als Menschen sehen, ist sichtbares Licht. Das kann man ganz einfach nachvollziehen, gerade jetzt in der dunklen Jahreszeit, wo es früh dunkel wird.
Stell Dich nachts in ein Zimmer und schau Dich um, dann schalte das Licht aus. Zack. Alles dunkel und Du siehst "nichts" mehr.
Warum? Sind die Gegenstände und der Inhalt des Zimmers magisch verschwunden? Nein. Es strahlt nur kein Licht mehr und es werden keine Photonen mehr von den Gegenständen und der Umgebung auf Deine Netzhaut reflektiert. Das sichtbare Licht ist weg.

Wir Menschen benötigen eine bestimmte Menge sichtbaren Lichts, um Dinge zu sehen. Dieses Licht besteht aus Strahlen (rays), die von der Umgebung -wie beschrieben- reflektiert werden. Wie wir die Dinge sehen, wird durch zahlreiche Faktoren beeinflusst, weil die Strahlen in den seltensten Fällen einfach in einer geraden Linie auf unser Auge treffen. Das ist nur der Fall, wenn man direkt in die Lichtquelle glotzt, was gerade bei der Sonne das Prädikat besonders wenig empfehlenswert verdient :D .

Man könnte nun aber jeden Lichtstrahl von der Entstehung zu dessen Auftreffen auf unser Auge zurückverfolgen (englisch "trace" = Spur/Verfolgung usw.).
Und zack sind wir beim Ray-Tracing, wenn wir nun sichtbares Licht bzw. dessen Strahlen verfolgen und dieses Licht möglichst naturgetreu simulieren.

Es dürfte nun vielleicht klar sein, warum hierin der "heilige Gral" der Grafikprogrammierung liegt. Bisher muss man extrem aufwendig die Realität am Computer nachbilden, sich vieler Tricks behelfen und Lichtquellen manuell setzen usw. etc. pp.
Mit Ray-Tracing wird es irgendwann (dauert vermutlich noch das eine oder andere Jahrzehnt, aber man muss ja klein anfangen wie jetzt :D ) möglich sein, dass man einem Programm einfach bestimmte Variablen vorgibt, z.B. ein Zimmer oder eine Landschaft und eine Uhrzeit und das Programm rendert per Ray-Tracing vollautomatisch dieses Zimmer inklusive der korrekten Beleuchtung, Schattenwurf usw. alles komplett originalgetreu so als ob sich ein menschliches Auge in der virtuellen Realität befinden würde, welches durch das reflektierte Licht diese Umgebung wahrnimmt.

Da die Echtzeitberechnung von sichtbarem Licht, also "rays", extrem rechenintensiv ist, müssen wir uns anno 2022 noch damit zufriedengeben, dass wir Lichtquellen und deren Effekte auf die Umgebung nur sehr partiell abbilden können, z.B. die Reflexion von Licht an spiegelnden Objekten oder der Schattenwurf.

Mit der Zeit und mit zunehmender Rechenleistung wird Ray-Tracing aber immer interessanter und wichtiger werden. Es ist der feuchte Traum eines jeden Entwicklers, wenn man die "global illumination" (also Lichtquellen) durch Ray-Tracing komplett ersetzen könnte, denn das würde pro Spiel alleine schon viele tausende Mannstunden an Arbeit einsparen.

Ich hoffe doch sehr, dass nun eventuell endlich klar geworden sein könnte, warum Ray-Tracing kein "Gimmick" ist und warum es "here to stay" ist. Wenn nicht vorher irgendwelche Wunder mit Quantencomputing passieren, dann wird Ray-Tracing im klassischen Computing eines Tages hoffentlich wirklich der heilige Gral der Grafikprogrammierung werden, den sich die Entwickler seit Anbeginn der Grafikprogrammierung erhoffen (die Grundidee von RT ist ja so alt wie die Programmierung an sich, also die Hoffnung existiert schon seit Jahrzehnten) ...
Ich kann dir nicht genug danken für deine Erklärung. Leider bilden sich Gegner von innovativen Entwicklungen nicht genug mit der Materie fort und schalten für 1 min. RT ein, merken kaum einen Unterschied- Ergo RT ist doof und frisst nur Ressourcen.
 
  • Gefällt mir
Reaktionen: FiRAS und RogueSix
@SKu Du hast recht, da steht nur SHIPPED to partners.
 
Dai6oro schrieb:
Die können labern was sie wollen. Am Ende entscheide ICH was ich kaufe mit meinem Geld. Mich interessieren auch nur harte Fakten und Messungen die ich mir am liebsten von mehreren Seiten hole (wie immer an der Stelle eine Hoch auf das 3D Center und ihre Launch Reviews um sich ein umfassendes Bild zu machen).
Die Interpretation der Fakten und Messungen interessieren mich dabei echt nen Sch... Das mach ich dann schon selbst da brauch ich auch keinen "Guru". Kann selbst denken.
Hat ja genau das getriggert was ich einkalkuliert hatte....
 
Du glaubst ich bin getriggert? Von dir? Von PCGH? Von Gurus? ich glaube du siehst da was nicht richtig. Ich brauche weder deine Meinung noch die anderer um mir anhand von Fakten eine eigene Meinug zu bilden.
 
  • Gefällt mir
Reaktionen: Illithide
Zurück
Oben