News AMD Radeon RX 7800 XT: PowerColor verrät Eckdaten der ersten Navi-32-Grafikkarte

ThePlayer schrieb:
Ich denke bei AMD hat man es vom Design her nicht besser hinbekommen oder sich einen Fehler ins Design gebombt den man zu spät bemerkt hat.
Das würde auch erklären warum man davon ausging das die 4090 mit 600W rennen soll was sie nicht tut.

Nunja. Die Stromverbräuche der letzten beiden Generationen sind nicht mehr feierlich.

aj4VasQcFfinmtc3UB7BSY-1200-80[1].png

"Nur" 450W, aber es geht zielstrebig Richtung 600W.
Desweiteren fällt auf, dass die 7900XTX fast 90W unterhalb der 3090Ti oder 4090 liegt.
 
TigerherzLXXXVI schrieb:
Die "Golden Rabbit Edition" ist wohl nur so etwas wie eine Limited Edition für den chinesischen Markt.
Genau das ist sie. Aber sie ist auch ein Testbalon für N31/N32 Package Hybride. ;)
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und usernamehere
StockholmSyndr. schrieb:
Desweiteren fällt auf, dass die 7900XTX fast 90W unterhalb der 3090Ti oder 4090 liegt.
Was aber auch nur daran liegt, dass sie von Nvidia so hoch angesetzt wurde.

Die XTX skaliert ausgehend von ihren 355W bis hoch auf 450W sogar besser, als es die 4090 tut. Sie geht sogar ziemlihc linear bis 600W weiter, während bei der 4090 oberhalb von 450W nichts mehr passiert(logisch, wenn man sieht dass sie normalerweise nicht mal diese 450W erreicht)
99c0b3e0d46035ea.png


Die 4090 gewinnt hier von 350W auf 450W ziemlich genau 6%.
Die 7900XTX gewinnt von 350W auf 450W knapp 9%.

Wie viel sie dann letztendlich maximal verbrauchen wird halt von AMD und Nvidia festgelegt.
Theoretisch hätte AMD auch die XTX mit 450W bringen und den Abstand auf die 4090 etwas verkürzen können.

Aber sinniger wäre es andersrum. Die 4090 bringt auf 350W noch ca 95% ihrer Performance und wäre damit noch ~25% schneller als die XTX. So hätte die Karte eigentlich rauskommen sollen mMn
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, usernamehere und Vitche
Kopiert hier AMD den Konkurrenten?
Das wird ja ähnlich wie bei ngreedia mit 3060ti vs 4060ti.
Nette Strategie von beiden um auch nach der Corona / Mining Zeit, die Preise künstlich hochzuhalten und die Entwicklung möglichst lange hinauszuzögern, damit man mehr abkassieren kann... Stonks durchgespielt würde ich sagen 🤔
Ergänzung ()

KlaasKersting schrieb:
Also macht AMD nun auch das selbe wie Nvidia, man schiebt die Karten eine Die-Stufe nach unten.
Schön beim großen Bruder abgeschaut 😊
 
  • Gefällt mir
Reaktionen: _roman_ und usernamehere
alkaAdeluxx schrieb:
Nette Strategie von beiden um auch nach der Corona / Mining Zeit, die Preise künstlich hochzuhalten und die Entwicklung möglichst lange hinauszuzögern, damit man mehr abkassieren kann...
Wenn es die Kunden mit sich machen lassen. Was möchte man von Börsenunternehmen erwarten.
 
  • Gefällt mir
Reaktionen: chaopanda und usernamehere
TheTallTom schrieb:
Die Leute die gewartet haben, möchten vermutlich etwas neues.
Und bekommen dann mit der 7800 XT quasi alten Wein in neuen Schläuchen (ungefähr gleiche Leistung + etwas mehr an RT sowie gerinfügig niedfriger Verbrauch) ?

Und das dann zu einem vermutlich recht kräftigen Aufpreis als die derzeitigen 6800/XT Abverkaufspreisen.
Das ist einfach nur noch absurd. Die Grünen wurde völlig zu Recht für den geringen Leistungssprung einer 3060 zu der 4060 verdroschen. AMD springt auf den Zug auf und gehört da völlig zu Recht genauso heftig für kritisiert. Die aktuelle Generation, egal ob nun Grün oder Rot, ist ein einziger Albtraum.
 
  • Gefällt mir
Reaktionen: usernamehere und Fallout667
Bei aller Spekulation und was man hier rein interpretieren kann, aber wir kennen weder Leistung noch Preis...
 
Javeran schrieb:
wir kennen weder Leistung noch Preis...
Naja wir kennen durch das Datenblatt zumindest schon mal die FP32 Leistung, da kann man schon etwas überschlagen

7900XTX 61 TFLOPS
7900XT 52 TFLOPS

-> 61/52 = 17%.
Vorsprung der 7900XTX im 1440p/4K CB Ranking = 14%/18%, also im Schnitt 16%, sehr nah am FP32 Unterschied.

7900GRE 46 TFLOPS
7800XT 39 TFLOPS

Diesmal andersrum -> 39/46 = 0,85.
Die 7800XT würde also 85% der Leistung der 7900GRE erreichen, was sie gleichauf bis 2-3% langsamer als dei 6800XT machen würde.
 
Javeran schrieb:
Bei aller Spekulation und was man hier rein interpretieren kann, aber wir kennen weder Leistung noch Preis...
Aber den ungefähren Leistungskorridor, auch wenn da noch spekuliert wird, kennt man ja die Grenzen nach oben und nach unten. Und auch der Preis wird sich in engeren Grenzen bewegen müssen, der Worst Case wird bei 650 Euro liegen (dann kauft keiner die Karte!) oder im Best Case bei 500 Euro (das könnte klappen!).
 
StockholmSyndr. schrieb:
Nunja. Die Stromverbräuche der letzten beiden Generationen sind nicht mehr feierlich.

Sinnloser Post.

Effizienz.

Ich bekomme X Rechenleistung für Y elektrische Leistung in Watt.

War auch der Grund warum ich zur abgespeckten Radeon 6800 non XT gegriffen habe. Grosser Chip, läuft langsamer aber größerer Infinity Cache.

Die oft empfohlene Radeon 6700XT ist der wahre Stromfresser im Vergleich z.B. zur Radeon 6800 non XT. Nur hochgetaktet - wenig Rechenkerne bei der 6700XT

--

  • FPS CAP und Verbrauch z.B. messen.
  • oder IDLE Verbrauch messen wenn man sinnerfassend denkend sein GNU Linux oder Windows konfiguriert hat. - Keine Default Values!
 
  • Gefällt mir
Reaktionen: StockholmSyndr.
NoNameNoHonor schrieb:
oder im Best Case bei 500 Euro (das könnte klappen!).
Ne gute neue 6800xt bekommst du für 530€ (gebraucht 400-450€)
Es ist immer noch viel Lagerware vorhanden

Gleichzeitig mit dem Release der 7800xt für 500-550€ würde der Preis der 6800xt ebenfalls schnell fallen um die Lagerware los zu werden.
Die alte Karte wäre also immer noch der bessere Deal
 
  • Gefällt mir
Reaktionen: Fallout667 und NoNameNoHonor
Mal noch nicht vorverurteilen!

Aber wenn eure Annahmen wirklich stimmen bin ich auch zu tiefst enttäuscht.

Eine 7800xt sollte auf niveau einer 6900xt sein oder ca. 15% über der nächsten GPU RX7800.
Das wäre die NV standart austarierung.
Ergänzung ()

_roman_ schrieb:
Hardware kauft man wenn Sie günstig ist.
So habe ich sie, die 6800xt, auch gekauft.
Jetzt vermutlich ein noch besserer Kauf als zuvor.
 
  • Gefällt mir
Reaktionen: _roman_
Dann scheint sich ja die Theorie immer mehr zu bewahrheiten, dass AMD bei der Entwicklung von RDNA 3 an extreme Taktraten und damit extreme Verbräuche geglaubt hat. Die damaligen Meldungen zu einer 4090/4090 Ti mit bis zu 800W habe ich noch im Kopf. Jagt man das durch eine 7900 XTX steigt ja auch die Leistung entsprechend aber leider skaliert eine 4090 viel besser nach unten als die RDNA 3 Chips...insofern waren die jetzigen Karten die AMD da bringt vielleicht so auch nie geplant.

Ich hoffe nur, dass sie das mit RDNA 4 (deutlich) besser machen!
 
MerryCrystal schrieb:
Anstatt neue Rdna 3 Karten auf den Markt zu werfen wäre es meiner Meinung nach sinnvoller alles auf FSR 3 setzen.
Jetzt denken wir mal scharf nach. Was würde sich mehr eignen als die Präsentation neuer RDNA3 GPUs zu nutzen um FSR3 zu zeigen.
Das Ganze dann im September launchen passend zu Starfield, dem ersten FSR3 exklusiv Game?! ;)
 
  • Gefällt mir
Reaktionen: Czk666
Fangen wir mal an
Amd Rdna4 soll also keinen high end chips mehr bringen was logisch unsinnig iost außer man hat keine kapazitäten in n3 das wäre bedingung für n3 oder man fixed lediglch mit n4p die simd32 einheit damit navi3 auch endlich dessen gedachten Takt erreicht n4p sol 11% perf bringen 3,2*1,11 = 3,55ghz
N3 hat +15% vs n5 aber ist +42% denser bei vermutlich 4,0ghz
Da muss n4p aber ordentlich billiger sein also um die 12000$ damit sich das rechnet

nach meinen formeln würde ein high end chip mit 120cu amd etwa 75$ kosten und das ist mit chiplets und substrat Kombination.
Ein mid class 96cu etwa 60$ und low end 40$
Die Hauptursache ist das die chips um 32% kleiner werden und der node nur 18000$ kostet
Daher macht die aussage kein Sinn nur den mid class zu beringen mit 96cu und auf n4p
Die dichte steigt auf +13% bei n4p das aber egalisiert sich da man diese Fläche für den fix braucht.
Aus derzeit 300mm² wird aktuell mit fix 330mm² und da wäre min ein waferpreis unter 12000$ erforderlich um dieselben kosten wie in n3 zu haben.

Das man nvidia high end nicht erreicht ist klar plant nvidia doch blackwell wovon ich nur zu 50% ausgehe wäre man mit diesen design bei 216sm verkauf ab 204sm bei quadro und consumer bei nen 144sm gb103 chip dabei. chip kostet um die 150$
Und erreicht nur mit dem kleineren gb103 etwa 86tf amd maxed 69tf
ich nehme aber an das man ne sku mit 142sm 85tf und eine sku mit 76tf plant
Da amd nicht mithalten kann.
Das mehrfache gcd in den mcm kommt erst mit rdna5 in n2 und dann geht es ab.
N2x bietet nochmal die option mit gaa die dichte zu verdoppeln aber das kommt erst 2027 in sample und 2028 in Produktion zu spät für nvidia blackwell Nachfolger und amd rdna5 die schon 2027 und 2026 kommen
zu dem Zeitpunkt ist aber n2p in Serie das schon +25% Takt bringt und 15% Dichte
low end sehe ich ab 2027 amd 2026 bei 30tf das entspricht der rtx4070ti bzw rx7900xt
Die ps5 pro q4 2024 hat 20tf
Daher nehem ich an das rtx50 ab 20tf beginnt das könnte der gb106 sein mit 36sm bei 2,5ghz nicht wundern die arch ändert sich darum ist das schneller. Der chip ist aber teuer ab 44$ darum zweifle ich daran das nvidia das machen wird es kann sein das man high end und low end trennt in n3 und n4p bringt aber das der waferpreis drastisch billiger ist.
Nviida gewinnt maximal 25% dichte und 15% takt bei n3 auf np4 nur 13% dichte bei maxed +11% Takt
2,8*1,11= 3,1ghz wären bei gleichen sku wie bisher 34 46 60= 18-32tf
ad116
34sm 60er class 40$ 18tf
ad114
46sm 70er class 64$ 25tf
60sm 70er ti 86$ 30tf

Das aber zu vermarkten wird schwierig

vs neuen design
gb106
36sm 60er class 44$ 21tf
gb104
46sm 70er class 81$ 27,6tf
60sm 70er ti class 104$ 36tf

Es kann sein das blackwell bessere sm ausbeute bringt also mehr aktiv bleiben pro gpc nur 1-2sm deaktiviert wäre das maxed 72-4 =68sm und 36-2 = 34sm
Aktuell werden etwa 3sm pro gpc deaktiviert darum hat ada potenziell 48sm des ad106 nur 34 aktiv
68*2*120*2,5=40,8tf fürn rtx5080
Der gb103 mit 8 gpc 144sm würde dann etwa 128sm aktiv haben mit 76tf als rtx5090
Ein gpc soll 18sm haben bei blackwell.
ada ampere hat 12sm per gpc
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Du kommst aus der Industrie oder ist das geraten?
 
  • Gefällt mir
Reaktionen: _roman_
TimeTurn schrieb:
So macht das für mich null Sinn
Dann
TimeTurn schrieb:
AMD hat es mal wieder vergeigt. Erst bringt man Ryzen 9 AM5-CPUs mit 3D-Cache raus, die diesen nur auf einem der CCDs haben (warum nicht auf beide CCDs? So macht das für mich null Sinn
Dann bist du einer von ganz wenigen für den das keinen Sinn ergibt. Das Konzept geht auf und funktioniert auch nachweislich. Warum AMD es so gemacht hat technisch wurde zudem auch bereits erklärt.
TimeTurn schrieb:
dann verzögert man absichtlich den Release der Mittelklasse-Grafikkarten. Tja AMD, ich hab seit ca. 2 Monaten ne RTX 4070 im Rechner - zu spät, selbst Schuld.
Wenn die 4070 für dich eine valide Wahl war.

Für mich wäre sie es nicht, mit ihren nur 12GB Vram, nur 192bit Anbindung und ihrem angesetzten Preis. RT und DLSS 3 sind für mich maximal nice to have und eben auch zusätzliche Speicherfresser. Damit wäre die selbst schon die RX6800XT eine ebenwürdige und zum Zeitpunkt günstigere Alternative.
Mit entsprechendem Preis ist eine 7800XT hier nochmal interessanter.
 
Ich finde es halt schade.
Wollte eigentlich die 6800XT kaufen aber hatte auf die 7800XT gehofft.
Aber der Aufpreis ist nicht gerechtfertigt.

AMD hatte zwar beim Speicher zuschlagen können aber 16Gb bei der 6800Xt ist meiner Meinung nach vollkommen ausreichend.
Auf vernünftiges kann man bei beiden nicht hoffen, nur zum reinschnuppern reicht es.
 
Zurück
Oben