News AMD Radeon RX 7000 („RDNA 3“): PowerColor zeigt roten Teufel, Leaker ersten Navi-31-Chip

DevPandi schrieb:
Auch: Falsch.

Befasst euch mal mit den Whitepapers zu GCN und RDNA, und lasst es falsche Infos über die Architektur zu verbreiten, die nicht stimmen.

Die Vec32 von AMD können sehr viele Formate und es GAB NIE dedizierte Int-Einheiten.
Hast du etwa schon das Whitepaper zu RDNA3 gesehen und kennst den exakten Aufbau sämtlicher Einheiten?
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Dieser Preis wird der sehr wahrscheinlich nicht der endgültige Preis der 4080 sein.
IMO hat Nvidia hier bereits eine Preisreduzierung eingeplant. Aber jetzt die 4080 billiger anzubieten hätte die Preise für die 3000er versaut.

Ich frage mich tatsächlich wer RTX3000 zu den Preisen noch kauft, wenn ich keine zu Release bekommen hätte, würde ich jetzt sicherlich nicht die aktuellen Preise für diese Stromfresser zahlen. Selbst die abgenudelten Miningkarten erzielen noch extrem hohe Preise.

Und eine 4080 16GB ist trotz der Lücke zur 4090 noch attraktiver als Ampere, insofern hat nvidia wohl alles richtig gemacht, denn selbst der überteuerte "Ampere"-Abverkauf scheint ordentlich zu laufen.
 
Philste schrieb:
Weil Nvidia aus irgendwelchen Gründen wohl HD Libraries benutzt. Laut Angstronomics bietet N5 sowohl bei HD als auch HP libraries ~1.5× an. HP von 60 auf 90 MTr/mm^2 und HD so von 95 auf 140 MTr/mm^2. Früher dachte man N5 HD wäre bei 170 MTr/mm^2 aber dem scheint nicht so zu sein.

Man hat in den HP und HD Libraries selbst ja auch nochmal die wahl zwischen unterschiedlichen Aufweitungsstufen (meistens X1, X2, X4, X8 und für Supply Zellen noch bis zu X20 hoch und dann entsprechend auch noch in unterschiedlicher trace Ausführung) und je nach Anwendung ist es auch sinvoll die Design rules noch zu erweitern und dummy Zellen in kritische Bereiche einzufügen.

Ich habe relativ wenig Erfahrung mit den neueren TSMC nodes (primär STM und Glofo nodes in den letzten Jahren), aber die Dichte ist immer auch eine Designentscheidung und Anwendungsabhängig. SRAM und Bus kann man nicht annähernd so dicht bauen wie die logic pipeline selbst. Wenn man mit stärkeren Schwankungen bei den Größen rechnet und auf LVT für weite Teile des designs baut hat man schnell Teile des designs mit massiven Leckströmen. Da kann es durchaus vorkommen, dass man die gesamte Logikpipeline auf doppelt so große Zellen umbaut. Leitungskapazität vs. Treiberstärke ist da auch immer so ein Thema.

Die 170 MTr/mm^2 kommen mit dem ITRS Referenzchip schon hin, nur ist der eben nicht für alles representativ.
 
DevPandi schrieb:
Es wäre echt mal schön, wen. Einige von euch Oberschlaubergern sich mal wirklich mit dem Thema befassen, oder einfach mal sich zurück halten.
Daher schätze ich deine Beiträge hier immer sehr. Aus meiner sehr laienhaften Sicht scheinst du einiges von der Thematik zu verstehen und deine Beiträge mit entsprechendem Verständnis verfassen. Da lese ich immer gerne und lerne etwas dabei!
 
  • Gefällt mir
Reaktionen: Colindo
paganini schrieb:
meine RX 6800 enttäuscht, gerade was 4k anging. Da bin ich mit meiner RTX 3090 besser bedient.
OK du bist enttäuscht von deiner rx 6800 und findest die 3090 ist besser?
Ja wer hätte das gedacht das eine Grafikkarte für 1500 Euro uvp besser ist als eine für 600 Euro uvp ,sauber!
Also manchmal weiß man nicht ob die Leute das wirklich ernst meinen oder einfach nur Trollen.
Ergänzung ()

paganini schrieb:
Preislich haben bei gleich viel gekostet, also kann ich es vergleichen
Das mag ja sein aber die rx 6800 sicher im mining boom und die 3090 im Abverkauf gekauft.
Trotzdem sind es 2 unterschiedliche Klassen von Grafikkarten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sonic_blade und Leereiyuu
Atent12345 schrieb:
Gegenüber N7s low density standard cells ist das weit mehr als nur 1,5x scaling.
Nach allem was ich mitbekomme verwendet AMD auch bei N7 keine High Performance Zellen. So viel ich mitbekommen habe, verwendet AMD High Density Zellen. Aber natürlich nicht als Standardzellen. Wie alle betreibt AMD massiv DTCO, das wird dann mit eigener Prozess umschrieben. Die Folie unten kommt von Mark Papermaster.
1667486145499.png

Sie basiert auf Daten von TSMC und besagt, dass mehr als 40 % des Scalings bei 5 nm aus DTCO kommt. Und deshalb ist das ganze Gedöns, ob man einen Prozess als N5 oder N4 bezeichnet eh irrelant. TechInsight hat übrigens bei einem Mediatek SoC der als N4 beworden wurde nachgewesen und keine relevanten Änderung zu N5-Standardzellen gefunden.
 
  • Gefällt mir
Reaktionen: Colindo
MistressOfAgony schrieb:
bereits vor wochen wurde geleakt das die 4090 weder in raster noch raytracing bedroht wird.
Genauso wie damals zu RDNA2 es immer wieder Leaks gab, die davon sprachen, dass RDNA2 nicht mit "Ampere" mithalten kann und ebenso gab es damals viele angebliche Experten, die alleine anhand des Shadercounts geschrieben haben, dass AMD NIEMALS mit Ampere mithalten kann und dass AMD maximal 3070-Leistung erreicht.
MistressOfAgony schrieb:
Leak ist vom Oktober und ist von escm_official auf der chinesischen counter part von Twitter.
Wenn ich es richtig verstehe, ist ESCM auch irgendeine Publikation, hinter der jemand Hardware testet. Auch die anderen Einschätzungen da sind ... na ja, AMD stellt die Karten im November vor, dass die Karten im Dezember auf den Markt kommen, damit hat jeder gerechnet, vor allem wenn man bedenkt, wie AMD die letzten Jahre vorgegangen sind, das ist keine Kunst.

Dein Leak ist alles andere als "Vertrauenswürdig", das sieht eher wieder wie jemand aus, der sich zu wichtig nimmt, aber keine Ahnung hat.

Philste schrieb:
Und fast die Hälfte der Chipfläche ist N6 und nicht N5. Da 2.4× mehr Einheiten in der bisherigen Form zu verbauen ist unmöglich.
Du vergisst hier an der Stelle einige Sachen, sie dir mal den DIE von Navi21 an: https://tpucdn.com/gpu-specs/images/g/923-cgi-die-shot.jpg

Neben dem, was @Colindo dir bereits genannt hat:

1. Der Infinity-Caches
2. Der Infinity-Fabric
3. Ungenutzte Fläche auf Grund der Organisation der Einheiten.

Sieht man sich das Bild an, kann man ca. 50 % der Fläche bei 520 mm² wegstreichen, man kommt also auf 260 mm² und wenn man die um ca. 30 % schrumpft, kommt man auf 182 mm². Der Navi31 Compute-Die soll auf ca. 300 mm kommen, also ist eine Verdoppelung der Shader, TMU und RT-Kerne durchaus möglich und auch 40 % mehr noch, wenn man dann überlegt, was AMD "wegstreichen" kann - FP64-Support weiter minimieren.

Dazu kommt noch, dass AMD dank des Infinity-Caches den L2-Cache nicht so stark anwachsen lassen muss, wie NVIDIA es gemacht hat. Auch hier bleibt vieles möglich für weitere Recheneinheiten usw. Auch wenn bei 308 mm² nicht viel zulegt.

Die Leistung RNDA3 heute Abend und ob ADA auch in RT ein Problem bekommt, hängt wirklich final vom Umbau ab, den AMD heute Abend bekannt gibt. CU umgebaut, wenn ja, wie oder WGP umgebaut wurde.

Beim CU-Umbau kommt es darauf an, ob NUR zusätzliche Vec dazu kamen oder noch mehr gemacht wurde. Aktuelle GErüchte berichten von 4 CU pro WGP, statt wie bisher von 2 CU pro WGP, dafür aber 4 Vec32 pro CU.
 
  • Gefällt mir
Reaktionen: MasterAK, bigdaniel und ETI1120
Novasun schrieb:
Aber bei deiner Argumentation ist der Gegener der 5800x3d und der steht in allen deinen Belangen gut da gegen den 136k ... Beides eine EOL Plattform... Und beides im Gaming sehr stark..
Ein gerade releastes Produkt wegen dem letzten Produkt auf dem Sockel nun schon EOL zu nennen .... ok

Danke das du meinen Eindruck unterstützt wie komisch viele CB User denken. Vielleicht werden wir ja überrascht, ich denke aber nich und die Überraschung wird eher für die meisten hier ziemlich groß sein.
 
Kalsarikännit schrieb:
So eine schöne effiziente Brot-und-Butter-Karte mit 16 GB RAM im Leistungsbereich einer 3090 sowie max 150W für um die 400€ - na wie wärs, AMD + NVIDIA?
Das wird wahrscheinlich nie wieder was 😅
 
  • Gefällt mir
Reaktionen: Kalsarikännit
  • Gefällt mir
Reaktionen: Leereiyuu
paganini schrieb:
Bin auch sehr gespannt! Ich war ehrlich gesagt von meine RX 6800 enttäuscht, gerade was 4k anging. Da bin ich mit meiner RTX 3090 besser bedient. Dennoch kann ich mir wieder einen Wechsel vorstellen, aber erst in 2-3 Jahren. Popcorn steht aber dennoch für 21 Uhr bereit 🍿
Du vergleichst eine RX 6800 mit einer 3090?
Eibe gleichwertige 3070Ti packt die 4k ja jetzt auch nicht...
 
ich selber habe mir gerade erst (gestern) eine RX 6950XT von Powercolor im Red Devil design geholt, an sich ne sehr schnelle karte nur fiept die ohne ende aus dem O11D Mini, und laut ist das ding auch wie sau, hab leider nicht aus der Red Devil 6800XT gelernt, da war es genau so ;(, naja noch kann ich sie zurücksenden, evtl wird es dann ja doch eine 7er mal sehen....

@paganini

da mußt du schon die 6950 oder 6900xt vergleichen... und die karten an sich sind super.
 
Lübke82 schrieb:
Egal was da kommt. Besser als die 4090 kann es kaum werden. Trotzdem viel Glück an AMD mit den Karten.
Was machst du sollte amd nochmal 10% auf die 4090 packen?
Ergänzung ()

Hutzeliger schrieb:
Mal schauen ob Sie es deutlich an einer 3090 Ti vorbeischaffen.

Bin gespannt.
Selbstverständlich werden sie das, das ist aber auch schon seit ca nem halben Jahr kla.
Die Zeichen stehen auf AMD hält Schritt.
 
Hutzeliger schrieb:
Mal schauen ob Sie es deutlich an einer 3090 Ti vorbeischaffen.

Bin gespannt.
die 6950XT ist ja schon so schnell :) wenn wir mal RT weg lassen ^^
 
Ich bin gespannt welche Spiele nachher als Referenz herhalten werden.
 
Die RDNA 3 Karten werden im Rechner bestimmt schöner ausschauen, als die fetten RTX 40x0er, zumindest auf die 4090 bezogen und den gezeigten Bildern zufolge. Ich bin gespannt, aber eher auf die Tests in naher Zukunft.
 
bigdaniel schrieb:
Was abseits der Zahlen gegen eine stärkere Karte spricht, ist das AMD seit dem 4090 Release recht ruhig ist.
Beim Ryzen 5000 gab's auch nicht groß Gerede vorher. Und was war Intel wurde geschlagen meine Hoffnung ist, Raja ist weg und unter Lisa Su gab's eigentlich nie große Leaks.
Also alles wird gut.
AMD hat diesesmal richtig gute Chancen die 4090 zu schlagen.
 
  • Gefällt mir
Reaktionen: MasterAK
Lübke82 schrieb:
Egal was da kommt. Besser als die 4090 kann es kaum werden. Trotzdem viel Glück an AMD mit den Karten.
Wenn man sich ansieht von welcher Position AMD kommt, kann es durchaus "besser" als die 4090 werden (je nachdem was man darunter versteht):

Mit RDNA1 hat AMD mit der RX5700 gerade mal im Mittelfeld der Grafikkarten mitgespielt.
Mit RDNA2 hat AMD die Leistung im Rahmen der RX6900 glatt verdoppelt und konnte beim Raster zur Oberklasse RTX3090 aufschließen. Beim ersten Raytracing-Ansatz hatten sie noch das Nachsehen.
Mit RDNA3 wird AMD vermutlich dieselbe Leistungssteigerung (Verdoppelung) wie für RDNA2 anvisiert haben. Sollte dies gelingen wäre Navi21 bei Rasterizing performanter als AD102. Wie hoch die Steigerung beim Raytracing liegt und ob es reicht an die 4090 heran zu kommen bleibt abzuwarten.

RDNA3 kann beim Rasterizing durchaus performanter werden, es kann preislich günstiger werden, es kann weniger Strom verbrauchen, es wird mutmaßlich Display-Port 2.1 geboten (statt 1.4a), es wird nicht so ein riesiger Klotz werden und mit Stromsteckern wird man sich auch nicht rumärgern müssen. Das sind viele Möglichkeiten für ein "besser".
 
Zuletzt bearbeitet:
Wieviel watt? Nur 350?

Ich hasse diese watt Limitation anstatt mal wirklich 600watt biest anzubieten wird überall gedrosselt

Die können ja für normale menschen sparsame gpus anbieten

Sehe das zapenduster wenn man nur über Effizienz geht, irgendwann muss auch die watt anzahl gehörig steigen

Dieses watt Geschwafel ist im grunde eine Leistungs kastration.

das ganze ist doch ein witz.

Selbst smart tvs werden ab 2023 limitiert durch watt. Ja richtig gelesen, wie staubsauger nicht mehr watt als x

Das selbe gilt für monitore

anstatt immer heller wirds dunkler da die watt anzahl das drosselt
 
Zurück
Oben