News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

Gibt es eigentlich mittlerweile ein äquivalent zu nVidia Inspector und deren Multi Display Power Saver für AMD? So dass ich selbst die GPU in ein 2D Modus (Power state) zwingen kann und auch dort bleibt?
 
wtfNow schrieb:
Ich glaube ich gönne mir inzwischen dank Greta-Kommentaren aus Prinzip nun zur nächsten Generation Hardware aus der obersten Reihe. Irgendwie habe ich Lust bekommen:)

Was sind "Greta-Kommentare"? Mehrleistung bei weniger oder gleichbleibendem Stromverbrauch ist doch eine völlig nachvollziehbarer Wunsch. Dazu will ich auch keine 400 Watt kühlen müssen, da Lautstärke auch ein Thema für mich ist. Am Ende ist bei mir dann eben die Grenze bei ca. 250 Watt. Muss natürlich jeder selbst Wissen.

wtfNow schrieb:
Und bestenfalls beides, was wir hier vermutlich auch wieder haben werden!:) was bringt einem weniger oder ähnliche Leistung als die Generation zuvor aber höhere Effizienz? Elektroschrott.

Nicht jeder hat eine aktuelle und Top- 3000er Karte. Entsprechend ist von 4050 bis 4090 alles mehr oder weniger interessant für eine gewisse Zielgruppe. Ich steige von einer 1070 wahrscheinlich um und würde mich bei der 4070 mit 250 Watt über 3090 Leistung sehr sehr freuen.

Die Frage ist doch ob man die doppelte Leistung der 3090 braucht, wenn man sie mit viel mehr Strom erkaufen müsste. Gleicher Stromverbrauch und 50% Mehrleistung wäre in meinen Augen eben auch stark für 2 Jahre.
 
  • Gefällt mir
Reaktionen: BurgbachJ und Humbertus
Kann diesen Gerüchten nichts abgewinnen.

Ein Multi Chip Design mit der Größe des letzten Mono Chip ergibt Leistungstechnisch wenig Sinn.

Der Sprung von n7 nach n6/5 bringt keine 100% mehr Leistung da AMD von 50%perf/Wart spricht UND mehr Leistung als beim Vorgänger.

Aufgrund der schwachen RT Leistung von AMD im Vergleich der Mitbewerber gibts für die ALU Anzahl nur die Flucht nach vorne. Faktor 2 bis 3.

Bei Apple hat die Umstellung etwa 45-50% an Fläche gebracht. N7 auf N5.
Durch mehr Takt ist der Verbrauch Beim a14 höher als beim a13.

Ich gehe mal so Richtung 700-800mm2 bei AMD aus um Nvidia Paroli zu bieten, welche wohl wieder 600mm2+ an Fläche haben werden.
 
Ich freue mich total...endlich Ersatz für meine 480 :D. Muss dann nur sehen welche genau
 
Hui,m es wird spannend, was Navi3x und AD10x angeht. Also Navi31 wird vermutlich die 4080 gut im Griff haben, auch was RT angeht. Die 4090 wird man vermutlich bei "normalen" Spielen im Griff behalten, bei RT weniger, da dann einfach RT-Kerne fehlen.

Aktuell besteht eine CU aus 2 × Vec32, 4 × TMU, 1 × RT-Kern. Wenn es so kommt, wie jetzt, dann 4 × Vec32, 4 × TMU, 1 × RT-Kern. Navi31 kommt damit dann auf die 12288 Shader, 384 TMU, 96 RT-Kerne. AD102 wird, wenn sich an den SM nichts drastisch ändert, bei 16384 Shader auf 512 TMU, 128 RT-Kerne kommen, AD104 auf 320 TMU, 80 RT-Kerne. Bei "normalen" Spielen wird es Navi31 mit AD102 aufnehmen können, bei RT hat AD102 einen Vorteil von 33 % mehr RT-Kernen.

AD102 wird vermutlich aus 8 GPC zu 16 SM bestehen, pro GPC kommen 16 ROP (aus GA abgeleitet), ROP wird es also ein Gleichstand geben, AD104 wird vermutlich 5 GPC haben, was dann auf 80 ROP hinaus läuft.

Bei Takt werden sich beide wohl nicht so viel nehmen, na man wird abwarten müssen, was da kommt. Auf jeden Fall muss NVIDIA auch etwas an den RT-Kernen machen, sonst wird NVIDIA da bei der große GeForce noch deutlicher vorne sein, auch wenn da viel aktuell von der Software abhängt und Entwickler noch RDNA kennen lernen.
 
  • Gefällt mir
Reaktionen: ShiftyBro
Könnte man eigentlich auch eine APU mit so einem Speicherchiplet herstellen?
 
  • Gefällt mir
Reaktionen: Convert
Grundgütiger schrieb:
Aufgrund der schwachen RT Leistung von AMD im Vergleich der Mitbewerber gibts für die ALU Anzahl nur die Flucht nach vorne. Faktor 2 bis 3.

Ich gehe mal so Richtung 700-800mm2 bei AMD aus um Nvidia Paroli zu bieten, welche wohl wieder 600mm2+ an Fläche haben werden.
Hast du eine Glaskugel oder schon beiden Grafikgenerationen Zuhause? Das du schon weist das RT sucks und die DIEs soviel größer sein müssen um mithalten zu können? Also bei der aktuellen Generation hat AMD 520 mm², nV 628mm² und Leistungstechnisch nehmen die sich nichts. Aber mit einmal braucht AMD 200mm² mehr, obwohl die bei der aktuellen Generation sogar weniger Fläche brauchten. Wo du deinen Schmarn schon wieder her nimmst, ist nicht nachvollziehbar ... ich sage Hater.
 
  • Gefällt mir
Reaktionen: ThePlayer, fLo547, AssembIer und 4 andere
wtfNow schrieb:
Und bestenfalls beides, was wir hier vermutlich auch wieder haben werden!:) was bringt einem weniger oder ähnliche Leistung als die Generation zuvor aber höhere Effizienz? Elektroschrott.
Du hast wohl noch Glühbirnen bei Dir in der Wohnung?!

Nein mal erstnhaft. Hast Du noch nie ein Haushalsgerät ausgetuascht, einfach weil Du durch den Einsatz von effizienteren neueren Produkten sparen lässt. Ein neuer Kühlschrank bringt meist auch nicht mehr Leistung als ein alter, hat die Anschaffungskosten aber oft schon nach 2-4 Jahren armotisiert. Deshealb stellen auch z.B. Firmen komplett auf LED Beleuchtung um und schmeissen den alten Kram raus, der aber ggf. schon genau so hell geleuchtet hat.

Und ja, auch beim PC ist sowas möglich.

Wenn Dir die Umwelt und künftige Generationen egal sind (falls Du so bist), dann denk doch einfach an Deinen Geldbeutel!:D
 
  • Gefällt mir
Reaktionen: medsommer, Kalsarikännit und edenjung
Skidrow1988 schrieb:
Ich hoffe, es gibt eine vernünftige 150 - 200Watt Lösung. Ich möchte keine 300+ Klopper haben. Ich weiß, den meisten ist das völlig egal, mir aber nicht.
Nachfolger für die Radeon 6700 175W +50% Raster +100%RT zum gleichen Preis wäre gut :-)
Ergänzung ()

Neodar schrieb:
Wenn die Preislage bei den neuen Karten auch wieder so absurd hoch ausfällt wie bei der aktuellen Generation, dann ist das Zeug für mich direkt gestorben.

Dafür gibt es dann aber noch die alten Karten zum Original UVP Preis von vor 2-3 Jahren ^^ ;-P
 
Es ist erstaunlich wie einige hier mit SLI Angstgeschichten und ungleichmäßigen Frametimes hier um sich werfen... Man muss doch nur lesen um zu sehen das es kein SLI geben wird weil der GCD (jener ausschließlich für Grafik-Berechnung verantwortlich) nur einmal vorhanden ist (also die Grafik Berechnung quasi Monolitisch ist) und die komplette Speichersektion als Chiplet ausgeführt ist.

Ergo:
Alle eure Ängste und Diffamierungen sind entstanden weil ihr es nicht versteht oder nicht richtig gelesen habt 😉

Grüsse
 
  • Gefällt mir
Reaktionen: Leereiyuu, ThePlayer, medsommer und 11 andere
Hannibal Smith schrieb:
@Maxminator du hast aber schon verstanden um was es hier genaut geht, und welche Bestandteile der GPU in Chiplets ausgelagert werden?
Ich denke, dass der Ansatz den AMD hier verfolgt auch ein Großteil der besseren Effizienz liefert.
Wo hat NV und AMD das meiste ans Strom in den letzten Jahren einsparen können? Am Si. Und wenn AMD eine ausgewogene Cache + Si Baustein zusammen bekommt kann man das von FHD bis UHD oder höher vermutlich gut hochskalieren.
 
  • Gefällt mir
Reaktionen: Lamaan
Maxminator schrieb:
Hardware kann schön und gut sein, aber wenn der Treiber nicht auch schön und gut ist dann nützt mir dieses SLI-auf-PCB nichts...

Sehr mutig was AMD bei dieser Generation macht, sehr mutig!

Und viel Spaß an alle, die dieses Konstrukt kaufen: diese Leute werden wahrscheinlich zu Betatester
SLI schon mal nicht, wenn dann AFR. Aber auch dieses findet dort nicht statt. SLI gab es nur bei 3dfx, nVidia hat lediglich denn Namen übernommen, und benutzt ebenfalls AFR oder besser gesagt, benutzte.
 
  • Gefällt mir
Reaktionen: edenjung und FeldiSan
Wenn es so kommt, bin och froh das die die neuen Stromstecker nicht haben und noch die Alten verwenden keine Lust wieder Adaptermist zu verwenden.
 
  • Gefällt mir
Reaktionen: medsommer
Hannibal Smith schrieb:
@Maxminator du hast aber schon verstanden um was es hier genaut geht, und welche Bestandteile der GPU in Chiplets ausgelagert werden?
AMD hat durch die letzten 3 Generationen Ryzen hier im Gegensatz zu den Mitbewerbern einiges mehr an Erfahrung.
Es bleibt aber dabei das diese Umsetzung bei einer Grafikkarte die allererste ist. Hier sollte man wirklich die Füße stillhalten und nicht nur Tests sondern auch weiterer Erfahrungsberichte abwarten.
Beim ersten Ryzen hat man das Potential sich sofort erkannt, aber rund war die erste Iteration noch lange nicht. AMD ist halt nicht so groß wie Nvidia oder Intel wo schon deutlich mehr feinschliff an Tag 1 erfolgt ist.
Schlimmstenfalls kommt eine Karte die in gewissen Situationen richtig scheint und sonst Probleme hat oder zickig ist und der Treiber noch ein Jahr reifen muss.
Ideal wäre natürlich wenn die Karte an Tag 1 immer Leistung bringt.
Wenn ich mir allerdings die letzten Jahre anschaue wenn AMD was technisch Neues released hat befürchte ich eher Ersteres und erst ein Refresh mit gereiften Treibern ist dann uneingeschränkt gut.
 
  • Gefällt mir
Reaktionen: Viper816
nöö schrieb:
SLI schon mal nicht, wenn dann AFR. Aber auch dieses findet dort nicht statt. SLI gab es nur bei 3dfx, nVidia hat lediglich denn Namen übernommen, und benutzt ebenfalls AFR oder besser gesagt, benutzte.
Wobei ich nicht verstehe warum man das nicht mehr nutzt? Die Lastverteilung war nachezu ausgeglichen und deshalb waren auch absolut keine Framtime Probleme vorhanden. Das Hat bei den Voodoo Karten damals extrem gut skaliert und funktioniert! Verstehe bis heute nicht warum Nvidia das nicht weiter nutzte?

Ich denke über chackerbording könnte man das auch heute wieder realisieren die Frames müssten hat gleichzeitig kommen bei einer nahezu 50/50 Bildaufteilung liegt das Last Moment gleich und sollte damit auch keine Frametimes Probleme mit sich bringen... Aber was sage ich... Ich habe keine Ahnung😁
 
Zer0Strat schrieb:
Aber auch nur um 50% bei 140% mehr ALUs. Gut, immerhin steht die 192MB Variante im Raum. Das macht es für mich irgendwo glaubwürdig.
Und angeblich 20Gbps GDDR6 statt der ursprünglich bei der 6900XT genutzten 16Gbps.

Das könnte für UHD alles in allem bereits genug sein, auch mit 96MByte.
 
  • Gefällt mir
Reaktionen: Convert
canada schrieb:
Hast du eine Glaskugel oder schon beiden Grafikgenerationen Zuhause? Das du schon weist das RT sucks und die DIEs soviel größer sein müssen um mithalten zu können? Also bei der aktuellen Generation hat AMD 520 mm², nV 628mm² und Leistungstechnisch nehmen die sich nichts. Aber mit einmal braucht AMD 200mm² mehr,
AMD ist bei TSMC N7
Nvidia ist bei Samsung 8N

Siehe Apple A13 auf A14 was die Umstellung alleine bringt und AMD selbst sagt mehr als 50% perf/Watt.

Und eine 6900xt ist in RT des öfteren in der Region einer rtx 3070.

Und mich interessiert nicht wer was bevorzugt, nur ergeben die „Gerüchte“ so halt wenig Sinn.
Von 80 auf 96 RT Kerne hoch zu gehen ohne enorm an der Taktschraube (Verbrauch)zu drehen bringt auch nicht viel.
 
@Jan : Ihr solltet korrekt abkürzen mit GCD für Graphics Compute Die, anstelle von dem von euch seltsamerweise als Kürzel eingestellten GDC.

Ansonsten: Vielen Dank für die prägnante Zusammenfassung der Gerüchtelage!
 
  • Gefällt mir
Reaktionen: Jan
Sind damit dann einfacher auch 192 bit und 12 gb vram bzw. 320 bit und 20gb vram konfigurationen möglich bei AMD unabhängig vom Raster Chip ?
Wenn ja, wäre man hier auf jeden Fall schonmal flexibler und könnte den vram besser anpassen.
 
Zurück
Oben