Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 4080 im Test: FE und Custom-Designs von Asus, MSI & Zotac im Vergleich
Es ist bekannt dass Nvidia nimmt ein Monolith 4nm Prozess während AMD hat billigeren 5 nm für die chip und für die anderen MCM Chips 6nm die a kostet weniger und b weniger weggeschmissen wird. Plus AMD nimmt GDDR6 und kein GDDR6+ wie Nvidia daher ist schon bestätigt dass es billiger ist als Nvidias 4080 kosten wird!
Daher hat AMD Luft nach unten sollte es zu eine Preiskampf kommen (und es wird kommen wegen die Wirtschaftslage!)
Die Fläche ist nicht entscheidend, wenn der Preis pro Transistor steigt. Ein AD102 Die besitzt fast 2,7mal mehr Transistoren als der GA102. Man nimmt daher an, dass der AD102 bei kaum kleinerer Fläche ca. das 3-4fache kostet wie der GA102.
Selbst ein so starker Preisanstieg würde immer noch durch den kleineren Chip eigentlich kompensiert weil die Yield halt soviel besser ist im Vergleich. Chipfläche ist ja um 40% gesunken für die 4080 16gb zur alten 3080.
Die andere Frage ist, warum die 4080 jetzt eigentlich den AD103 verwenden muss, anstatt einen weiter Teildeaktivierten AD102.
Rein vom Unterschied der Chipfläche haben wir zwar einen unbestreitbar vergleichbar großen und mit Sicherheit auch wirklich, wie du schon sagtest, viel teuren Chip für die 4090, der von der Größe gut mit der 3090 vergleich ist.
Aber bei der 4080 mit AD103 geht es dann direkt auf Level eines GA104 einer 3060ti.
mospider schrieb:
Du bist der Erste der weiß, was eine 7900XTX in der Produktion kostet. Kannst du uns bitte teilhaben lassen?
Einzige Schätzung die ich kenne liegt bei 69 um die Dollar für GCD + die kleinen MCDs einer XTX.
Einfach weil die Yield so hoch sein sollte, dank sehr kleinen Chips. Der AD103 sollte eine ganze ecke teurer sein, aber nicht ansatzweise so teuer wie der schon sehr, sehr große AD102. Sowohl Nvidia and AMD sind ja beide auf 5nm auch wenn nvidia sicher mehr als AMD pro Wafer zahlen dürfte und iirc AMD die MCDs in 6nm macht.
Ergänzung ()
pookpook schrieb:
Es ist bekannt dass Nvidia nimmt ein Monolith 4nm Prozess während AMD hat billigeren 5 nm
Nein, Nvidia nimmt einen Custom 5nm Process der 4N heißt. Was daran Custom ist außer eben ein Name der zum Nvidia branding passt? Keine Ahnung. Aber mehr als AMD zahlen sie bestimmt dafür.
Luft hat AMD aber sicher reichlich, Nvidia auch, und wohl TSMC ebenfalls.
Chips sind größer und AMD nimmt wohl mehr Wafer von TSMC ab (wegen den CPUs) und TSMC scheint auch nicht soviel Arbeit ins anpassen der Prozesses gesteckt zu haben, weil hier explizit bei Nvidia von Custom 4N gesprochen wird. Also liegt die Annahme zumindest nah.
Wieviel wir konkret sprechen wirst du den Poster den ich zitiert habe drauf ansprechen müssen, der scheint da mehr zu wissen als ich.
also 1600 euro für einen midrange chip ist schon brutal.
da bleib ich bei der 3090 Ti war Deutlich Günstiger als der Midrange chip den Mir Nvidia da Andrehen will!
Leider halt mit Brutalem Verbrauch aber das Liegt an Samsung.
Für 800 rum wäre das ein Monster grade weil nur der Midrange chip Benutzt wurde locker möglich.
dann mit der 4080 Ti ergänzen die einen 102 chip hat und bei Bedarf mit einer 4080 Super mit vollem 103 chip nachlegen gegen AMD hätte ich noch mitgemacht aber das ist no way.
Naja ich kann es Aussitzen mir tun nur Alle Leid die seit 2 Jahren Aussitzen und wider einen schlag ins Gesicht bekommen.
Du kannst mich auch bemitleiden. Ersparnisse sind zwar vorhanden, aber mir widerstrebt es auch, 1600 Goldtaler zu bezahlen. Und Ampere hatte ich dank Scalper und Schlürfer auch übersprungen.
ich hab ampere auch übersprungen bis ich günstieg an die 3090 Ti gekommen bin 800 euro gebraucht da bin ich weich geworden trotz des brutalen strom verbrauchs hab sie halt auf 340 watt gedrosselt reicht dicke!
ich bin aber jetzt froh die 3090 zu haben den die Preise der 4000 sind absolute wucher 1500 euro für einen Midrange chip im teilausbau ist schon Krank!
hätten sie immerhin die 4080 mit vollem 103 gebracht und später erst eine lite version mit dem jetzigen chip gebracht wäre es zumindest nicht total Assi weil jeder weis da kommt irgent wann der volle 103 noch
Banger schrieb:
Du kannst mich auch bemitleiden. Ersparnisse sind zwar vorhanden, aber mir widerstrebt es auch, 1600 Goldtaler zu bezahlen. Und Ampere hatte ich dank Scalper und Schlürfer auch übersprungen.
ich hab ampere auch übersprungen bis ich günstieg an die 3090 Ti gekommen bin 800 euro gebraucht da bin ich weich geworden trotz des brutalen strom verbrauchs hab sie halt auf 340 watt gedrosselt reicht dicke!
Selbst die 3080/10 wird ja noch für 600-800€ im Gebrauchtmarkt gehandelt. Da muss ja der Preis Richtung 500€ gehen, wenn die 3090TI für 800€ machbar ist. Außerdem sollen sie aus dem Quark kommen und DLSS 3 auch auf Ampere bringen.
Dann sind sie wieder am Scalpen bei Ebay-Kleinanzeigen. Referenz, wo man erst WL-Pads auf dem heißen Speicher verbauen muss, 680€ und die Strix 750€. Referenz Speichermenge unbekannt, Strix 10GB. 3090 als TUF 1250€.
Dieser sogenannte Test ist ein einziges Chaos. Benchmarks der Custom-Designs muss man mit der Lupe suchen. Die meisten Daten werden für die FE angegeben.
Gute Preis. Strix 2080S schätze ich auf 300-350€. Ist trotzdem wenig Subvention für 7900XTX für im besten Fall 1250€ und 1500€ im besten Fall für die 4080. Und 1500 sind schon die Preise des schwarzen Freitags und ist meistens die Gainward.
Aber die Strix ist gerade auf RMA, weil ich einen defekten DP-Anschluss vermute, da an einem der neue Monitor dann auch rumbebugt hat, reproduzierbar, am anderen nicht.
Ich habe gerade wieder in den sogenannten Test geschaut. Dabei habe ich festgestellt, dass das Geschriebene noch chaotischer ist, als ich erst dachte. Da kann man z.B. die folgende Angabe lesen: Die Asus GeForce RTX 4080 TUF OC kommt mit dem Quiet-BIOS auf 67 und 79 °C. Angaben beim Windows-Desktop und unter Last. Im Balken-Diagramm werden jedoch folgende Temperaturen angezeigt: Desktop 31°C, Last 67°CV. Ob die im Text vermeldeten Temperaturen sich vielleicht auf den Speicher oder den Hotspot beziehen konnte ich nicht verifizieren.
@garfield36 Dann wiederhole ich mich auch, lies den kompletten Absatz, denn dort ist nicht von Idle vs Last die Rede sondern es steht genau drin, dass es um GPU-Edge und GPU-Horspot geht, einmal für die MSI und anschließend für die TUF.
Und das stimmt auch mit dem Balkendiagramm überein.