News GeForce RTX 4090 ohne Gegner: AMD stellt Radeon RX 7900 XTX gegen GeForce RTX 4080

sprich, nicht mehr die Modell Bezeichnung gibt den Ausschlag, sondern zu welcher UVP man die Gpu verkauft. danach richtet sich dann also, wie man sich aufstellt vom portfolio, zur Konkurrenz. so kann man es auch machen, wenn das "Spitzenprodukt" nur gegen eine kastrierte 4080 konkurrieren kann...
Ergänzung ()

ThirdLife schrieb:
Denke AMD schiebt sicher noch ne 7950XT nach oder was vergleichbares. Die wird dann auch gegen die 4090 positioniert und wohl um die 1399 kosten.
warum sollte amd für eine 7950xt, die dann etwa dieselbe leistungsklasse erreicht, wie eine 4090, nur 1399€ verlangen, wenn die konkurrenz dafür 2000€+ verlangt?
 
Taxxor schrieb:
Naja in erster Linie ging es bei meinem ersten Kommentar um die Aussage, dass die Steigerug für 2 Jahre zu gering wäre. Zwischen der 580 und der 780Ti liegen ja ganze 3 Jahre und eben auch 2 GPU Generationen
Sorry, ich habe nur bis zu
Taxxor schrieb:
Jetzt denk mal die letzten 15 Jahre zurück. Die meisten Generationen bewegten sich bei +30-40%.
zurückgeblättert, also nicht mehr den ursprünglichen Kontext gesehen.
BTW: Zwischen 580 und Titan liegt dann wiederum weniger Zeit.

Das wichtigste bei einer solchen Liste ist mMn ohnehin, dass man versucht, sie auf ein gegebenes Watttarget einzuschränken. Von Kepler bis Pascal gab es da ordentliche Fortschritte, bei Turing ging es abwärts und Ampere war sogar noch schlechter aufgestellt.
 
feidl74 schrieb:
warum sollte amd für eine 7950xt, die dann etwa dieselbe leistungsklasse erreicht, wie eine 4090, nur 1399€ verlangen, wenn die konkurrenz dafür 2000€+ verlangt?
$1399
 
$ zu € wechselkurs gesehen? somit, warum sollte amd um die 30% weniger verlangen, für eine karte, die eventuell auf 4090 nivea ist? ich bezweifle, das amd, solch eine karte wirklich günstiger produzieren kann als nvidia
 
feidl74 schrieb:
$ zu € wechselkurs gesehen? somit, warum sollte amd um die 30% weniger verlangen, für eine karte, die eventuell auf 4090 nivea ist?
Du bist der einzige der hier von € spricht, es geht um die MSRP von AMD und Nvidia
$1399 vs $1599 -> 12,5% günstiger
 
  • Gefällt mir
Reaktionen: incurable
Taxxor schrieb:
Meine aktuelle, eher optimistische Schätzung(vor allem bei RT):

Mit Photoshop gemacht?

Wird wohl eine 7900XTX dieses Mal für mich. Gutes Plus an Raster im Vergleich zur 3090 und bei RT dürfte sie auch drüber liegen. :)
 
SKu schrieb:
Mit Photoshop gemacht?
Gutes altes Paint^^

SKu schrieb:
Wird wohl eine 7900XTX dieses Mal für mich. Gutes Plus an Raster im Vergleich zur 3090 und bei RT dürfte sie auch drüber liegen. :)
Bei ner 3090 hätte ich mehr schwierigkeiten beim Sprung auf eine 7900XTX als mit meiner 6800XT

Wenigstens bekäme ich sowohl in RT als auch in Raster ~80% Mehrleistung, du hättest in RT je nach spiel überhaupt keine^^
 
  • Gefällt mir
Reaktionen: incurable
Wenn wie es aussieht die 7900XTX 10% - 20% hinter einer 4090 bezüglich Rasterleistung liegt und RT Leistung ~ 10% an die 4080 ran kommt hat AMD alles richtig gemacht.

AMD sucht sich nicht umsonst die 4080 als Gegner aus, die einerseits geschlagen werden soll und anderseits eben gleichgezogen werden soll.
Das man dabei hier und da an die 4090 eckt, wäre dann der Fingerzeig auf die Preise (nach der Präsentation sieht es ja tatsächlich so aus, als würden sie dieses mal auf Marktanteile spekulieren indem sie diese Preisidiotie bei alten Standards aufgreifen).

Die 7900XT deckt damit das alte Spitzen Modell 3090Ti ab.
Es scheint ja auch, daß AMD sich diesmal mehr Zeit genommen hat um einen besseren Treiber zum Start zu garantieren. Was zusammen mit der verbesserten Feature-Palette schon ziemlich gut aussieht für nächstes Jahr.
 
Taxxor schrieb:
Wenigstens bekäme ich sowohl in RT als auch in Raster ~80% Mehrleistung, du hättest in RT je nach spiel überhaupt keine^^

Gemäß der Prognose wäre doch ein + in Punkto RT im Vergleich zur 3090 zu verzeichnen.
 
Ja im Durchschnitt, da sind auch Spiele drin, wo die 3090 ziemlich nah an der 6900XT Performance ist, das spiegelt RT Heavy Titel halt nicht wieder.

Im Extremfall sind es bei Cyberpunk 176% und bei Guardians of the Galaxy 179%(dort hat die 6950XT sogar Probleme mit der 3060Ti)
 
Sehe die RDNA 3 so wie zu Zeiten von Ryzen 1xxx. Jetzt mit den Chiplets. Ist nicht die Bombenleistung. Zum Spielen in 4K reicht es und wenn man was sowieso kaum einen auffällt die Werte auf Mittel oder ab und zu Hoch stellt auf seine 140-300 FPS kommt. Reicht es doch erst einmal. Kaum einer spielt in 6k oder 8k. Da kosten die TVs einfach noch zu viel. RDNA 5 wird bestimmt das Sein was heute Ryzen 5xxx ist. Solide und so wie in Anwendungen und in Spielen. Die Masse Interessiert sich eh für die Mittelklasse und da nehmen die Hersteller das meiste mit ein. AMD wird irgendwann vllt auch teurer als Nvidia werden, sobald die Leistung stimmt.

Aber finde es auch krass was heute die Karten über 300 Watt ziehen und dann noch zu Preisen für über 1000 Euro verkauft werden. Wenn Intel sich nicht so blöd anstellen würde. Hätte man mehr Konkurrenz im Markt. Hoffe das Apple eventuell noch in den Gaming Markt mit einsteigt. Hört sich Paradox an aber wenn die Konkurrenz von außen kommt und auf einmal die Gefahr besteht das Kunden komplett vom Markt verschwinden, gehen die Preise auch ein wenig zurück. Träume, aber bei den Zeiten ist es auch mal schön die Augen zu zu machen.
 
Das amd die rx7900xtx an der rtx4080 bemessen will glaube ich schon aber das dürfte erst nach der Vorstellung der rtx40 Serie gewesen sein.
Nun zur Leistung anhand von amd Performance angaben erreich man die rtx4090 erst ab 2,8ghz und stock läuft man nur mit 2,3ghz
Das ist verdächtig gering getaktet
Wenn man weis das 6nm wo das limt sein wird aktuell ist das 2,8ghz womit locker 2,6ghz erreicht werden ohne außerhalb der Effizienz zu kommen.
Der 5nm node erlaubt sogar bis zu 3,5ghz der sram aber nicht. (sam alles was inf cache und L3 ist)
Womit wir zum Problem bei rdna3 kommen, amd hat mach eigene angaben eine Auslastung von bis zu 70% der alu
Das ergibt sich aus den benchmarks die gezeigt wurden.
Daraus kann man ablesen das man die rtx4090 nicht schlagen kann solang beim Takt limitiert wird.
Das amd sich anstatt ins maximum was vermutlich 2,8-3,0ghz gewesen sein müsste sich für einen Preiskampf entschieden hat sagt deutlich aus das amd eine starke Rezession erwartet und geht über Masse.
Da auch amd mehr fertigen kann trotz mehr chips höhere yield und sind günstiger zu fertigen.
Gehe ich davon aus das amd sogar tief gestapelt hat.
Nichtdestotrotz 999$ und 899$ in D sind das 1250€ und knapp 1100€
Wobei man sagen muss das die rx7900xt nur +18% schneller ist als ne rx6950xt
Womit diese genau +7% schneller als ne rtx3090ti ist

Das ist preisstillstand und deshalb lohnt sich nur die xtx da man schon nahe dem n33 ist der wird wie andere 6nm node bei etwa 2,8ghz sein also stock dann 2,6gzhz Da ist der Sinn hinter n32 infrage zu stellen.
n33 4096 *2*2,8=22,9tf ein n32 mit 30wgp also 7680 alu mit vermutlich 2,5ghz dann nur 26,2tf und quasi identisch zur rx6950xt da sehe ich kaum nen abstand zum rx7700xt
bsp ein Modell mit 24wgp rx7800 6144 =21,5tf das wär gleichschnell wie n33
darum sehe ich das so das amd den Takt unterhalb des sweetspotes gezeigt hat.
Den das wäre nur logisch ansonsten macht n32 in cut keinen Sinn.
Amd gpu Vorstellung war enttäuschend aber der preis reißt es raus.

Nvidia muss reagieren den rtx4080 wird deutlich geschlagen +53% und das 150€ billiger.
Ich sehe es kommen das nvidia auf 899$ geht bei der rtx4080
Der Preiskampf kam unerwartet.

Im low end ändert sich aber vorerst nix bis amd und nvidia den Überbestand abverkauft ist. Und das dauert min ein Jahr.
 
Taxxor schrieb:
Noch ein Grund, warum ich die 7900XT lieber als 7800XT gesehen hätte. Auf augenhöhe mit der 4080 bzw. nach meiner Schätzung sogar leicht unterlegen zu sein, macht keinen guten Eindruck, wenn die Karte die 900er Nummer trägt.
Jup, aber mal schauen ob dann eine Nitro+ mit 3ghz kommt und nur die Referenz Karte von AMD dann kleine Brötchen bei der Leistungsaufnahme backt. Dann würde es wohl wieder passen.
Mal ganz davon ab, wenn die DAUs bei Nvidia keinen unterschied zwischen 1060 und 1060 sehen, wer weiß schon ob sich eine 7090 nicht einfach bei AMD besser verkauft, ganz egal wie die Performance dann eigentlich ist. Die, die die Benchmarks lesen, ist der Name ja eh eigentlich egal, und die die sie nicht lesen … 90 ist besser als 80.
 
Apocalypse schrieb:
Jup, aber mal schauen ob dann eine Nitro+ mit 3ghz kommt und nur die Referenz Karte von AMD dann kleine Brötchen bei der Leistungsaufnahme backt. Dann würde es wohl wieder passen.
Dafür wird es dann aber leider auch >400W gehen müssen, und damit noch ineffizienter als die Karte bei 355W sowieso schon ist, während die 4090 ja selbst beim TBP Target der Referenzkarte fast nichts verliert.
 
  • Gefällt mir
Reaktionen: Apocalypse
Exar_Kun schrieb:
Wirtschaftlich macht es bestimmt Sinn, sich nicht mit der Brechstange auf ein Nischenprodukt wie die 4090 auszurichten. Dennoch bleibt der Leuchtturmcharakter eines solchen Flaggschiffes für die gesamte Reihe nicht zu unterschätzen.
Er wird aber auch gerne überschätzt. Intel hat sich auch mehr Spott und Häme, denn Ruhm, eingefangen
 
Linmoum schrieb:
Und jetzt das ganze auch noch mal mit RT bitte. Da werden dann aus +60% Preis (UVP) auch mal eben 70-100% mehr Performance - also besseres Perf/$-Verhältnis. ;) Wobei ich denke, dass der Abstand sogar größer ist.

Aber ist auch egal, der Gegner wird sowieso nur die 4080 sein und auch die wird die +20% bei der UVP in RT sicher verdoppeln, wenn ich sowohl AMDs als auch Nvidias eigene Benchmarks als grobe Einordnung nehme.
Wenn ich mir die mögliche Bildwiederholrate am Ausgang anschaue, ist die 4090 vierfach überteuert, mmh.
Mal im Ernst, die Leistung der 4090 ist ja top notch, aber der Preis🤔
Bei der 4080 vs 7900 müssen wir sehen was die Balken bringen. Je nach Präferenzen, bei dir offensichtlich RT, ist für jeden etwas dabei. Im Idealfall gibt's einen Preiskampf, in der Oberklasse.
 
  • Gefällt mir
Reaktionen: sebish
Taxxor schrieb:
Ja im Durchschnitt, da sind auch Spiele drin, wo die 3090 ziemlich nah an der 6900XT Performance ist, das spiegelt RT Heavy Titel halt nicht wieder.

Im Extremfall sind es bei Cyberpunk 176% und bei Guardians of the Galaxy 179%(dort hat die 6950XT sogar Probleme mit der 3060Ti)

Das ist in Ordnung für mich. Die kommenden RT Titel, die mich interessieren beschränken sich auf Witcher 3 Remake, Callisto Protocol und Forspoken. Letzteren beiden Titel sind AMD sponsored, daher gehe ich mal stark davon aus, dass RT dort nicht bis Oberkante zum Einsatz kommt.

Bei der 4090 wäre ich maximal bereit 1.950 € bezahlen zu wollen und mich interessiert nur die FE aufgrund der Abmaße.

7900XTX 1.300 + 250 € Waküblock
4090 1.950 + 250 € Waküblock
 
  • Gefällt mir
Reaktionen: sebish
Taxxor schrieb:
Dafür wird es dann aber leider auch >400W gehen müssen, und damit noch ineffizienter als die Karte bei 355W sowieso schon ist, während die 4090 ja selbst beim TBP Target der Referenzkarte fast nichts verliert.
Jup, wird interessant sein zu sehen ob die Partner dann Karten mit 2x8pin und 3x8pin anbieten, die dann wirklich auch nochmal unterschiedliche Performance bringen und auch so richtig ineffizient werden. Das Referenz Design erscheint zumindest vernünftiger.
 
  • Gefällt mir
Reaktionen: sebish
Taxxor schrieb:
Die 6800XT ist 18% schneller als die 6800, ähnlich wird auch die 7900XTX stärker sein als die 7900XT
Das sind die falschen Vergleichskarten, Navi 21 XTX steckt in der 6900 XT, Navi 21 XT in der 6800 XT und der Abstand liegt bei ca 10%.
 
Zurück
Oben