News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

ghecko schrieb:
Perf/W bei CDNA3 sieht nicht gut aus für Nvidia. Und Intel, aber die haben mit ihren Chips noch ganz andere, grundlegende Probleme.
Aber mal sehen ob sich das nur auf AI beschränkt oder mehr oder weniger auf die restlichen Funktionen übersetzt.
Ich schaue mittlerweile gar nicht mehr auf Perf/W, solange das nicht astronomische Ausmaße annimmt. Mir ist da die Leistung auf der Straße lieber und mich nervt es jedes Mal, wenn meine 6800XT in Raytracing Titeln teilweise von einer 3060 gebügelt wird. Wenn AMD da mit der 7000er Reihe nicht massiv aufholt, switche ich sofort zu Nvidia.
 
  • Gefällt mir
Reaktionen: CiX und ben12345
Zer0Strat schrieb:
Oder anders gefragt, wenn ein bestimmter Core Daten braucht, müssen (Worst Case) alle Caches und alle 6 lokalen MCs gefragt werden, ob die Daten (dort) zur Verfügung stehen?
Nein, der Cache ist für die GPU Transparent. Die greift einfach auf den Speicher zu, sind die Daten im Cache, werden sie schneller geliefert. Sind sie nur im RAM, dauert der zugriff eben länger.
Im Cache eines MCDs sind auch nur die Daten die im angeschlossenen Speicher liegen und keine Daten aus anderen MCDs.

Kannst du dir wie bei den Seagate SSHDs vorstellen. Da sind auch nur die Daten der dahinterliegenden HDD im Cache. Und der SSD Cache dient dazu um die Latenz zu reduzieren und häufig verwendete Daten schneller zu Verfügung stellen zu können.
Das gleiche bei den MCDs. Im vergleich zu einem Cache ist ein Zugriff auf ein GDDR6 Chip sehr langsam.
 
  • Gefällt mir
Reaktionen: rumpeLson und DevPandi
Also erstmal die SLI Vergleiche machen überhaupt keinen Sinn.
Ja GPUs mit mehreren Rechenchips werden irgendwann im Gaming bereich kommen. So wie Apple es bereits beim M1 Ultra tut und AMD in ihren MI250x Datencenter GPUs. Da wird kein AFR verwendet was Microruckler verursacht sondern beide Chips arbeiten am selben Frame, was möglich ist dank schnellem Interconnect.

Aber, DAS IST JA NICHTMAL DAS WAS AMD DIESE GENERATION TUT. Es gibt ja lediglich einen Rechenchip + externes Speicherinterface. Quasi ne GPU mit externen North-Bridge. Das heißt das ist ja komplett Problemfrei.

------------------
Aber ich hätte größere Dies von AMD erwartet. Wenn AMD mit chiplet Design in N5/N6 gerade so auf ihre 600mm² kommt und NVidia in ihrer 4090 600+mm² in N4 monolithisch nutzt dann kann das fast nicht konkurrenzfähig sein.
Warum kein 600mm² GCD (oder 2x300) + interface chiplets. So verspielt AMD ihren chiplet Vorsprung
 
  • Gefällt mir
Reaktionen: Leereiyuu, rumpeLson, memory_stick und eine weitere Person
Viper816 schrieb:
Du hast wohl noch Glühbirnen bei Dir in der Wohnung?!

Nein mal erstnhaft. Hast Du noch nie ein Haushalsgerät ausgetuascht, einfach weil Du durch den Einsatz von effizienteren neueren Produkten sparen lässt. Ein neuer Kühlschrank bringt meist auch nicht mehr Leistung als ein alter, hat die Anschaffungskosten aber oft schon nach 2-4 Jahren armotisiert. Deshealb stellen auch z.B. Firmen komplett auf LED Beleuchtung um und schmeissen den alten Kram raus, der aber ggf. schon genau so hell geleuchtet hat.

Und ja, auch beim PC ist sowas möglich.

Wenn Dir die Umwelt und künftige Generationen egal sind (falls Du so bist), dann denk doch einfach an Deinen Geldbeutel!:D
Glühbirnen und Kühlschrank hat rein gar nichts damit zu tun. Seit Jahrzehnten wird nicht mehr als +7/-18°C (Kühl)leistung gefordert oder Glühbirnen heller als XXXX Lumen.

Bei Rechenleistung wird kontinuierliche Leistungssteigerung benötigt. Effizienz genauso. Beides geht Hand in Hand. Der Unterschied scheint noch nicht ganz klar zu sein obwohl es eigentlich so einfach ist.

Es gibt so viel wichtigere Bereiche wo jeder was tun kann wenn er möchte als böse sündige PC-Spieler zu belehren (und selbst das macht weltweit gesehen Null Komma Null Unterschied).
(Sry für OT, war mein letzter Beitrag zu dem Thema hier)
 
  • Gefällt mir
Reaktionen: Nefcairon
Maxminator schrieb:
Und viel Spaß an alle, die dieses Konstrukt kaufen: diese Leute werden wahrscheinlich zu Betatester

Kannst mir dann bei RDNA4 danken.
Hoffe du vergisst das nicht.
Möchte ein Dankeschön.
 
  • Gefällt mir
Reaktionen: GERmaximus, Convert, pipip und 8 andere
wtfNow schrieb:
Glühbirnen und Kühlschrank hat rein gar nichts damit zu tun. Seit Jahrzehnten wird nicht mehr als +7/-18°C Kühlleistung gefordert oder Glühbirnen heller als XXXX Lumen.

Bei Rechenleistung wird kontinuierliche Leistungssteigerung benötigt. Effizienz genauso
Kühlschrank/Gerfrierkombi nach 15 Jahren ersetzt. 33% mehr Volumen bei 160 kWh/y im Gegensatz zu vorher 450 kWh/y

Natürlich hat sich da auch die Leistung (Volumen, viel mehr Kühlung mit viel weniger Energieeinsatz, mehr Komfort) massiv erhöht, auch wenn das Kühlziel das gleiche ist.

Beispiel taugt nicht.
 
  • Gefällt mir
Reaktionen: GERmaximus, Innocience, v_ossi und 3 andere
phanter schrieb:
Aber ich hätte größere Dies von AMD erwartet. Wenn AMD mit chiplet Design in N5/N6 gerade so auf ihre 600mm² kommt und NVidia in ihrer 4090 600+mm² in N4 monolithisch nutzt dann kann das fast nicht konkurrenzfähig sein.
Warum kein 600mm² GCD (oder 2x300) + interface chiplets. So verspielt AMD ihren chiplet Vorsprung
Diese 600mm² von NV müssen auch erstmal produziert und bezahlt werden. AMD wird seine Chips deutlich günstiger produzieren können, da von den kleinen Chiplets deutlich mehr auf einen Waver passen und durch die kleine Größe auch noch weniger Fehleranfällig sind.
Meiner Meinung nach wir AMD hier seinen Chiplet Vorsprung ausspielen und Nvidia preislich deutlich unter Druck setzen.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Convert, ofenheiz und 2 andere
Ayo34 schrieb:
Was sind "Greta-Kommentare"? Mehrleistung bei weniger oder gleichbleibendem Stromverbrauch ist doch eine völlig nachvollziehbarer Wunsch. Dazu will ich auch keine 400 Watt kühlen müssen, da Lautstärke auch ein Thema für mich ist.
Danke. Es geht ja nicht allein um den "Verbrauch". Auch wenn dieser in der aktuellen Lage sogar noch mehr Relevanz hat. Die Energiekosten steigen auf allen Ebenen, da ist Hardware, die für Mehrleistung mehr Strom braucht, vielleicht nicht der größte Wunsch den ich hege.
Auch wenn das Perf/Watt-Verhältnis stimmt (und sich sogar ggü. des Vorgängers verbessert).

Der größte Punkt ist für mich tatsächlich die Kühlung. Für mich kommt auch keine GPU über 250W in Frage.
 
  • Gefällt mir
Reaktionen: Holgmann75, Ayo34 und Viper816
whyme schrieb:
Diese 600mm² von NV müssen auch erstmal produziert und bezahlt werden. AMD wird seine Chips deutlich günstiger produzieren können, da von den kleinen Chiplets deutlich mehr auf einen Waver passen und durch die kleine Größe auch noch weniger Fehleranfällig sind.
Meiner Meinung nach wir AMD hier seinen Chiplet Vorsprung ausspielen und Nvidia preislich deutlich unter Druck setzen.
Du vergisst dass man auch noch einen 600mm² Interposer braucht, also insgesamt 1200mm² Wafer. Und das bonding ist sicher auch nicht günstig.
Es wird also günstiger für AMD. Aber nicht ganz so viel wie du denkst. Es hat schon einen Grund warum Navi 31 monolithisch bleibt.

Außerdem zählt am Ende nur wer den längsten hat. AMD war jetzt schon seit einem Jahrzehnt nicht mehr an der Spitze. Da könnten sie schon rein aus Marketinggründen mal raushauen was technisch möglich ist um NVidia an der Spitze zu deklassieren. Wird mal Zeit für ein dickes Rechenmonster
 
  • Gefällt mir
Reaktionen: ben12345
Haldi schrieb:
Genau.....
50% bessere Performance pro Watt! Wer's glaubt.
Und die TDP steigt von 300W auf 350? 375?
Somit wären wir schon bei 16% mehr durch mehr Leistung +50% Effizienz = total 75% mehr Leistung ohne Architektur Verbesserungen...

Deute die Grafik bitte noch einmal richtig. RDNA3 +50% P/w ggü. RDNA2. Hier wird wohl das Gesamtpaket inkl. neuer Fertigung und neuer Architektur gemeint sein.

Steht sogar rechts daneben in der Grafik. P/W uplift trought......

Einfach erklärt bedeutet das, bei selber Performance RDNA2 zu RDNA3 wird der RDNA3 chip 50% bessere effizienz haben laut AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer und Beg1
An diversen Kommentaren zu Grafikkarten sieht man, dass irgendwie nur die Spitzenmodelle betrachtet werden ohne selbst die Zielgruppe zu sein. Damit wirkt natürlich auch der Leistungskronenbonus wunderbar, ohne dass es in der Mittelklasse eine Rolle spielt.
Wenn jetzt beispielsweise hier bei AMD von +50% perf/Watt die Rede ist, sieht man doch, dass es immer effizienter wird, selbst wein man ein Spitzenmodell rausbringt, welches dann mit der Brechstange deutlich über 400W verbrauchen würde, bedeutet das nichts für die kleineren Modelle, aber alle sind empört, dass Grafikkarten immer mehr verbrauchen.

Ich stelle mir jetzt eher ein Nachfolger einer 6600 vor, die bei gleichem Verbrauch von ca 135W 50% mehr Leistet. Wunderbar.

Die bisherigen Gerüchte sind mir teils noch zu schwammig, was letztendlich rauskommen soll. Abwarten, was wirklich dabei rauskommt.
Gespannt bin ich schon, wie gut AMD es hinbekommt, mit Chiplets in Grafikkarten zu arbeiten und wie gut die Auslastung so klappt. Das wäre eine ähnliche Revolution, wie bei den CPUs. Weg vom monolithischen Design zu günstigeren MCM. Bei HEDT und Server-Prozessoren hat es jenfalls ne Menge gebracht, gegenüber eines einzelnen Riesen-Dies.
 
  • Gefällt mir
Reaktionen: ThePlayer, Innocience, AssembIer und 4 andere
VoAlgdH schrieb:
Es wird ein neues Stück Hardware vorgestellt, und bei einigen gibt es nichts mehr anderes als den Verbrauch...

Der Verbrauch ist auch wichtig, aber wenn AMD schon 50% bessere Performance pro Watt angibt, sollte man sich kaum Gedanken machen, denn AMD hat mit der RX 6600/XT eine relativ leistungsstarke Karte im 120/160 Watt Bereich und deckt somit eigentliche alle Interessen ab.

Nur viele Leute erwarten mehr Leistung als eine RX 6900XT bei weniger Verbrauch als eine RX 6400 und das ist in dieser Generation noch nicht möglich.

Und ab einem gewissen Punkt wird diese Diskussion auch albern, die Leute die angeblich soviel Wert auf Verbrauch und Effizienz legen spielen oft noch mit viel ineffizienteren GTX-Karten und verbrauchen seit Jahren für die gebotene Leistung eigentlich zu viel Strom.

Eigentlich wollen die meisten einfach nur nicht von einer xx80 GPU auf eine xx60 wechseln, weil es sich dann wie ein Downgrade anfühlt, sehr schade.
 
  • Gefällt mir
Reaktionen: alex22, Ozmog und Viper816
Haldi schrieb:
Genau.....
50% bessere Performance pro Watt! Wer's glaubt.
Und die TDP steigt von 300W auf 350? 375?
Somit wären wir schon bei 16% mehr durch mehr Leistung +50% Effizienz = total 75% mehr Leistung ohne Architektur Verbesserungen...
Von 80-100% Mehrleistung zur 6900XT wird ja auch ausgegangen.

Und für 100% Mehrleistung dürfte Navi31 dann 400W ziehen um bei +50% Perf/W zu bleiben.

Und bei der besseren Effizienz sind natürlich schon Architekturverbesserungen mit drin, das Bild zeigt RDNA3 vs RDNA2, nicht TSMC N7 vs TSMC N5
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haldi, Jan und Beg1
Haldi schrieb:
Genau.....
50% bessere Performance pro Watt! Wer's glaubt.
Und die TDP steigt von 300W auf 350? 375?
Somit wären wir schon bei 16% mehr durch mehr Leistung +50% Effizienz = total 75% mehr Leistung ohne Architektur Verbesserungen...

Was genau sollte daran nicht stimmen? AMD sagt, dass sie mit der neuen Generation eine 50% bessere Performance pro Watt hinbekommen. Der offensichtliche Teil ist die neue Fertigung, die beträgt aber laut TSMC keine 50%. Also muss AMD auch noch weitere Verbesserungen vorgenommen haben. Insgesamt ergibt das 50% mehr Effizienz und das finde ich genial innerhalb von 2 Jahren!

Bei Nvidia sollte z.B. der Sprung noch größer ausfallen, weil Samsung 8nm -> TSMC noch einiges mehr ausmacht. Dafür fällt vielleicht der Anteil bei der Architektur geringer aus. Weiß man nicht. Insgesamt erhoffe ich mir eigentlich von Nvidia noch einen größeren Sprung bei der Effizienz.

Aus dem Grund freue ich mich auch auf die neue Generation so sehr. Normale(re) Preise und richtig leistungsstarke Karten im Bereich zwischen 200 und 300 Watt, die man mit UV sicherlich auch noch effizienter gestalten kann.
 
  • Gefällt mir
Reaktionen: Beg1
Viper816 schrieb:
Du hast wohl noch Glühbirnen bei Dir in der Wohnung?!
"Kleine Note 5 auf Verdacht! Es gibt kein Elektrisches Obst" hat damals mein BMSR-Lehrer immer gesagt und eingetragen :D
Die neue Generation intereesiert mich technisch nur bei der DP-Leistung, aber das ist ja eher eine "Nischen-Anforderung"
Ansonsten, ruhig bleiben und abwarten. :schluck:
 
ich bin gespannt, wie gut sich die neuen karten untervolten lassen. meine jetzige 6900xt läuft mit stock boost werten bei 200w (laut hwinfo, real wohl eher 240w).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orok91, WhiteRabbit123, Viper816 und eine weitere Person
Beg1 schrieb:
Und ab einem gewissen Punkt wird diese Diskussion auch albern, die Leute die angeblich soviel Wert auf Verbrauch und Effizienz legen spielen oft noch mit viel ineffizienteren GTX-Karten und verbrauchen seit Jahren für die gebotene Leistung eigentlich zu viel Strom.
Darauf wollte ich hinaus.
 
  • Gefällt mir
Reaktionen: Beg1
Ayo34 schrieb:
Bei Nvidia sollte z.B. der Sprung noch größer ausfallen, weil Samsung 8nm -> TSMC noch einiges mehr ausmacht.

Aus dem Grund freue ich mich auch auf die neue Generation so sehr. Normale(re) Preise und richtig leistungsstarke Karten im Bereich zwischen 200 und 300 Watt, die man mit UV sicherlich auch noch effizienter gestalten kann.

Ja, der verbesserte 10nm Prozess (8nm) von Samsung zu TSMC 5nm sollte extrem werden, deswegen sind für Ende August auch weitere Preissenkungen der RTX 3000 Generation prognostiziert.

Ich freue mich auch extrem auf die neue Generation und würde deinem Beitrag komplett zustimmen, aber normalere Preise und bessere Verfügbarkeit sehe ich noch nicht.
Auch wenn Mining abflaut und die Hashrate von ETH nicht direkt absorbiert werden kann - Scalper wird es wieder geben und vermutlich mit erneut verbesserten Bots, die PS5 leidet noch 2 Jahre später unter diesem Mist, während Hersteller und Handel bisher keine Lösungen gefunden haben.
 
Wer baut sich denn heutzutage noch SLI in den Rechner? Bei den Strompreisen und der Umwelt sollte mittlerweile doch jeder verstanden haben wie es läuft wenn man noch ein paar schöne Jahre auf unserer Erde verbringen mag oder?

Dank VFX u. DLSS braucht man nicht jedes Jahr neue Hardware und man schont den Planeten. Jede nicht produzierte Grafikkarte rettet so vllt. einen Eisbären. Wäre schön aber ihr wisst was ich meine oder?
 
Zurück
Oben