News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

Taxxor schrieb:
Keine, aber das ist ja der einzige Inhalt an News, den wir die letzte Zeit serviert bekommen und über irgendwas muss man ja bis zum 3.11. schreiben^^
Das war der Artikel von letzte Woche, :).

Dieser artikelbasiert auf einem Tweet von Greymon55, dass AMD den Launch um eine Woche verschoben hat.

Aber an der Anzahl der Posts, sehen wir ja wie dringend wir alle auf handfeste Informationen lechzen.
Es sind ja nur noch 3 Tage.
 
  • Gefällt mir
Reaktionen: simosh
ETI1120 schrieb:
Mal 'ne andere Frage, was spielt es für eine Rolle wie die Karten heißen?

Bei nVidia hat das bis vor kurzem komischerweise eine sehr große Rolle gespielt, aber mich überrascht die AMD-Doppelmoral nicht mehr wirklich. Es ist immer wieder schön dies bestätigt zu bekommen :) .
 
RogueSix schrieb:
Bei nVidia hat das bis vor kurzem komischerweise eine sehr große Rolle gespielt, aber mich überrascht die AMD-Doppelmoral nicht mehr wirklich.
  1. Es geht um Spekulationen, wie denn AMD die Karten nennen könnte. Bei den RDNA 3 gibt es erheblich interessantere interessantere Dinge zum Spekulieren als den Namen der Topkarte.
  2. Es wundert mich doch sehr, dass Nvidia einen Rückzieher gemacht hat, wenn sich nur AMD-Fanboys darüber (künstlich) aufgeregt haben.
 
ETI1120 schrieb:
Es wundert mich doch sehr, dass Nvidia einen Rückzieher gemacht hat, wenn sich nur AMD-Fanboys darüber (künstlich) aufgeregt haben.
Meinst du einen Rückzieher bei der 4080 12gb?
 
ETI1120 schrieb:
  1. Es wundert mich doch sehr, dass Nvidia einen Rückzieher gemacht hat, wenn sich nur AMD-Fanboys darüber (künstlich) aufgeregt haben.
Weil ja die ganzen YT Channels, die idR recht Nvidia positiv sind, und auch die Leute im Nvidia Subreddit es natürlich total gefeiert haben, dass eine Karte mit ~50% der Leistung einer 4090 für über $1000 als 4080 verkauft werden sollte und der Leistungsunterschied zur anderen 4080 nicht mal gekennzeichnet werden durfte.

Stimmt, über sowas könnte man sich wirklich nur aufregen, wenn man AMD-Fanboy ist...


Bei AMD ist es zwar nicht exakt so, aber es könnte auch vergleichbar sein.
Es macht nämlich einen Unterschied ob die Karten nun als 7900XT und 7900XTX kommen, oder schlicht als 7800XT und 7900XT.

Aufgrund ihrer Specs belegen sie ja klar die Positionen, die vorher 6800XT und 6900XT hatten.
Man kann also, wenn man weiß wie die neuen Karten heißen, den Preis in etwa abschätzen.

Will man für die zweitstärkste Karte nun deutlich mehr Geld verlangen, nennt man sie einfach 7900XT und packt ne 7950XT oder ne 7900XTX darüber als neues Produkt.
Damit würde die zweitschnellste Karte eine UVP auf bzw. leicht oberhalb der 6900XT bekommen können, sie ist ja schließlich der Nachfolger der 6900XT.


Würde sie aber als 7800XT kommen und die Top Karte als 7900XT, dann wären auch die Preise für beide niedriger, da sich die zweitschnellste Karte nun vom Namen her mit der 6800XT vergleichen muss
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, McTheRipper und Colindo
Ich denke die AMD Fanboys hatten eher Grund sich zu freuen als sie die 4080 12gb gesehen haben, weil ihnen das neue Munition gegen Nvidia gegeben hat. Jeder mit ein bisschen Verstand hat sofort gesehen was Nvidia da für einen Scheiss versucht. Die Kritik hagelte von allen Seiten. Von Nvidia Nutzern weil sie sich zurecht verarscht vorkamen und von den AMD Fanboys hagelte es Häme.

Immerhin hat Nvidia es jetzt mit der 4090 und 4080 geschafft wieder einen richtigen Leistungsunterschied einzuführen. Dass die 3090 nur 10% im Schnitt schneller war als die 3080 und dabei mehr als doppelt so teuer war, das war ein Fehler von Nvidia. Das haben sie jetzt korrigiert. Der Preis- und Leistungsunterschied zwischen den beiden 40er Karten ist jetzt da wo er realistischerweise auch sein sollte. Natürlich finde ich aber die ausgerufenen Preise sehr hoch für beide Karten, egal ob in Dollar oder Euro.
Die 4080 sollte sich im 700-800$ Bereich bewegen und die 4090 von mir aus um die 1200$.
Denke wenn es keine 30er Karten mehr gegeben hätte dass wir das auch so ähnlich gesehen hätten.
 
Zuletzt bearbeitet:
th3o schrieb:
Dass die 3090 nur 10% im Schnitt schneller war als die 3080 und dabei mehr als doppelt so teuer war, das war ein Fehler von Nvidia. Das haben sie jetzt korrigiert. Der Preis- und Leistungsunterschied zwischen den beiden 40er Karten ist jetzt da wo er realistischerweise auch sein sollte.
10% Mehrleistung für (etwas)mehr als doppelt so teuer war ein schlechter P/L Unterschied, das stimmt.

Aber nun mit einer 4080, die nur ~65% der Leistung hat, für die aber 75% des Preises der 4090 ausgerufen wird, ist es auch nicht viel besser.

Eigentlich gibt es immer einen prozentual höheren Aufpreis für die allerschnellste Karte und während man bei Ampere positiv sehen konnte, dass man auch weniger als die Hälfte für ähnliche Leistung zahlen konnte(VRAM mal außen vor), ist es bei Ada genau umgekehrt und man muss, wenn man das bessere P/L haben möchte, zur teuersten Karte greifen.
 
Taxxor schrieb:
Aber nun mit einer 4080, die nur ~65% der Leistung hat, für die aber 75% des Preises der 4090 ausgerufen wird, ist auch nicht viel besser.
Das stimmt, ich glaube Nvidia hat das Gefühl die 3080 zu günstig damals verkauft zu haben (wenn man sie denn bekommen konnte für 699€). Das wollen sie jetzt korrigieren.
Und um ehrlich zu sein als ich damals die 699$ bei der Präsentation von Huang gesehen habe war ich auch sehr überrascht.
Meine Theorie ist dass weil die 40er Karten während des Miningbooms konzipiert wurden, dass Nvidia da all in gegangen ist und auch u.a. deswegen ihre Produktionskosten gestiegen sind. Die riesigen Kühler aller Karten deuten auch darauf hin dass sie vielleicht für was anderes noch ausgelegt waren als das was jetzt bei rausgekommen ist in Hinsicht auf powerdraw und Hitze. Und daher auch die sehr stark angezogenen Preise bei 4080 und 4070 im Vergleich zu der 30er Gen während die -90er Karte recht gleich geblieben ist.
 
3080 10gb beste Karte ever nach der 1080ti. Alles richtig gemacht wer Eine zu Release zu UVP bekommen konnte,10gb mimimi jaja :D Nach Einführung der 12GB leider obsolet geworden bei Neukauf sofern der Preis nicht 1/3 günstiger gewesen ist.

Nach der Präsentation von AMDs Lineup und der 4080 werden wir aller schlauer sein bei der Einordnung P/L.
 
Gerithos schrieb:
Bei requiem beschweren sich schon einige über den inputlag und ich erkenne auch keinen Mehrwert, in einem langsamen Spiel noch mehr fps zu haben, das Bild ist ohnehin ruhig

Es fühlt sich halt an als ob man in Requiem durchgängig in einer Teergrube unterwegs ist.

Mit Controller wohlgemerkt...

Daher ist DLSS3 keine wirkliche Lösung für das Problem mit der hohen Latenz bei niedrigen Frameraten
 
Magnifico schrieb:
Es fühlt sich halt an als ob man in Requiem durchgängig in einer Teergrube unterwegs ist.

Das fühlt sich für mich sowohl mit DLSS3 als auch ohne so an. Es ist das Spiel selbst.
 
Grundgütiger schrieb:
Würde mich allerdings auch mal interessieren was eine 4090 in Hardware wirklich kostet.

Sony verkauft die PS5 für 460€ +Steuer und macht dabei Gewinn!
Man kann bei der Größe des Chips davon ausgehen,
dass dieser bei den Yield die erzielt werden bei TSMC, in etwa um die 90-100 Dollar kostet.
Dazu PCB + Spannungswandler etc. weiter 40 Dollar.
Die 24GB Speicher auch in etwa 70-100 Dollar.
Dazu den Kühler mit Lüfter weiter 80-100 Dollar.
Somit gehe ich davon aus,
dass eine Nvidia RTX 4090 FE irgendwo bei 280-340 Dollar reinen Herstellungskosten liegen wird.
Vermutlich bin ich aber da schon von den Berechnungen etwas drüber! :D
 
MehlstaubtheCat schrieb:
dass eine Nvidia RTX 4090 FE irgendwo bei 280-340 Dollar reinen Herstellungskosten liegen wird.
Vermutlich bin ich aber da schon von den Berechnungen etwas drüber! :D
Sehr wahrscheinlich weit drunter, es gibt leaks die besagen dass die Produktionskosten sich bei 900-1000$ für eine 4090 bewegen. Man darf auch nicht die ganzen Entwicklungskosten vergessen in der R&D Phase.
 
@MehlstaubtheCat

wenn es so wäre dann sind 1000% vom Punkt Herstellung bis zum Endkunden durchaus normal :D und schon vor einem Vierteljahrhundert die Regel in der Textilindustrie. Heute sind es mehrere 1000% und von Luxusmarken erst gar nicht gesprochen.
 
MehlstaubtheCat schrieb:
Man kann bei der Größe des Chips davon ausgehen,
dass dieser bei den Yield die erzielt werden bei TSMC, in etwa um die 90-100 Dollar kostet.
Was für einen Yield nimmst du denn dafür an und was für Kosten pro Wafer? $17.000 habe ich für einen 5nm Wafer in 2020 gesehen.
Der Chip ist 608mm² groß, selbst bei einer Yield-Rate von 100% komme ich da auf ~$191 pro Chip, bei 90% sind es ca $212.

Mittlerweile dürften die Preise aber mindestens 20% höher sein, was bei 100% Yield bereits ~ $230 wären bzw ~ $250 bei 90% Yield.

Mit allem drum und dran bis sie im Shop landet würde ich nicht unter $800 rechnen, was Nvidia eine 4090 FE kostet, und das wären immer noch 100% Marge
 
Zuletzt bearbeitet:
ETI1120 schrieb:
AMD-Fanboys darüber (künstlich) aufgeregt haben.
Lieber ein AMD-Fanboy als ein überheblicher "ich Zahl 2k für ne Grafikkarte weil sie OP ist" Nvidia-Fanboy 😂
 
Taxxor schrieb:
Was für einen Yield nimmst du denn dafür an und was für Kosten pro Wafer? $17.000 habe ich für einen 5nm Wafer in 2020 gesehen.
Der Chip ist 608mm² groß, selbst bei einer Yield-Rate von 100% komme ich da auf ~$191 pro Chip, bei 90% sind es ca $212.

Mittlerweile dürften die Preise aber mindestens 20% höher sein, was bei 100% Yield bereits ~ $230 wären bzw ~ $250 bei 90% Yield.

Mit allem drum und dran bis sie im Shop landet würde ich nicht unter $800 rechnen, was Nvidia eine 4090 FE kostet, und das wären immer noch 100% Marge
Guter Einwand! Kann ebenso sein :D Dann gehen wir eben von 250 Doller für den Chip allein aus.
Aber 800 Dollar für die ganze Karte, kann ich mir nicht wirklich vorstellen.
 
Glaub wir können uns so einiges nicht vorstellen wie ein Multimilliarden-Dollar Unternehmen funktioniert...
 
Zuletzt bearbeitet:
MehlstaubtheCat schrieb:
Aber 800 Dollar für die ganze Karte, kann ich mir nicht wirklich vorstellen.
Naja, logisch betrachtet ist die 4090 in der Produktion mal mindestens doppelt so teuer wie die 3090 war und dabei ist die UVP nur um $100 gestiegen.
Soweit ich weiß hatte Nvidia eine Marge um die 60% im Schnitt, auf die 4090 bezogen müsste die Karte Nvidia also ~$900 kosten.

Bei Ampere hatte man die 3080 auf dem gleichen großen Chip und damit wohl nur eine kleine Marge gemacht, was man durch eine sehr viel höhere Marge bei der 3090(gleicher Chip, >2-facher Preis) wieder ausgeglichen hat.

Dass man bei Ada den kleineren Chip der 4080 nun so viel teurer ansetzt(bedenke, dass ist der Chip den vorher eine 3070 für $499 hatte), sagt mir, dass es nun genau umgekehrt ist und die Marge der 4090 wohl eher geringer als der Schnitt sein dürfte, weil man wohl Angst um die Absatzzahlen hatte, wenn man die Marge gleich hogh gehalten hätte(was >$2000 bedeutet hätte) und man das durch eine riesige Marge bei der 4080 wieder reinholt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MortyMcFly und th3o
Taxxor schrieb:
Naja, logisch betrachtet ist die 4090 in der Produktion mal mindestens doppelt so teuer wie die 3090 war
Warum?

Das Wafer in feineren Prozessen teurer sind, mag sein.

Aber woher kommen die doppelten Kosten?
 
Zurück
Oben