News Navi 31, 32 und 33: Handfeste Gerüchte zu AMDs Radeon RX 7000 mit RDNA 3

Draco Nobilis schrieb:
Daher ist es für mich noch unklar ob alles reibungslos läuft.
Man weiß nie, ob Probleme auftreten. Fehler können immer passieren.

Aber schon jetzt schon von möglichen Problemen zu reden halte ich für überzogen. Diese Änderung ist im Vergleich zur Einführung des Infinity Caches marginal. Kritisch sind nur die elektrischen Parameter. aber hier ist ein erprobtes Verfahren im Einsatz. Selbst dem Treiber dürfte es egal sein ob das Memory PHY auf demselben Die ist oder nicht.

Und so will ich mit Mark Papermaster antworten (aus einem Interview mit Semiconductor Engineering):
... Sie müssen also Lösungen entwerfen. Man muss wissen, welche Probleme man lösen will. Und wenn man das tut und weiß, dass die Technik, die man hat, wirklich etwas bringt, dann muss man sich auch Gedanken über alle anderen beweglichen Teile machen. Welche Herausforderungen wird das mit sich bringen? Brauche ich neue EDA-Fähigkeiten, um es zu modellieren? Brauche ich neue Simulationsmöglichkeiten? Welche mechanischen oder thermischen Probleme müssen wir lösen? Sie müssen in Ihrem Entwicklungsprozess Testchips erstellen und all das analysieren, bevor Sie es wagen können, das erste Produkt auf den Markt zu bringen. Man kann nicht einfach hoffen, dass es funktioniert. Man muss wissen, dass es funktionieren wird. Es bedarf wirklich eines gut durchdachten Plans und einer Strategie, die über mehrere Jahre hinweg entwickelt wird, bevor man eine Lösung auf den Markt bringt.

Übersetzt mit www.DeepL.com/Translator (kostenlose Version)

Das beschreibt ganz kurz was es bedeutet an einer Roadmap zu arbeiten. Wenn etwas ins Design einfließt weiß man dass es funktioniert.
Ergänzung ()

phanter schrieb:
Die Kosten sind egal, ich will nen fettes Flaggschiff.
Dann sag das doch gleich.

AMD hat mit RDNA 3 so viel im Detail geschraubt, dass sich niemand traut eine Einschätzung abzugeben, was AMD hier auf die Beine stellt.

phanter schrieb:
Wie gesagt 2080 Ti - 754mm²
Da ist also noch gut Luft nach oben auch im Consumer Bereich
Die Luft wird extrem dünn bei den gestiegenen Waferkosten. Die hohen Waferkosten waren der Grund warum Nvidia ein Sonderangebot bei Samsung angenommen hat. Und trotzdem hat man die Chipfläche verkleinert.

Humbertus schrieb:
Doofe Frage: Gibts eigentlich irgendwas handfestes warum immer wieder geschrieben wird das Nvidia die nächste Gen im vergleich zu AMD ein wesentlich schlechteres Perf/Watt Verhältnis haben soll?
Reine Mutmaßung.

Bei der letzten Generation war AMD vorne. Deshalb gehen viele davon aus dass es wieder so sein wird.

Wir werden es sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
2x8 Pin klingt doch schonmal gut. Damit wäre die Leistungsaufnahme ja schon beschränkt.
 
  • Gefällt mir
Reaktionen: Leereiyuu
GrooveXT schrieb:
Es wird zwar eine <200 Watt GPU geben, aber ich bezweifle sehr stark das es sich dabei um eine 70er Karte handeln wird.

Es ergibt überhaupt keinen Sinn worüber wir hier reden, bei meinem letzten Post ist mein Gehirn bereits fast explodiert.
Ich verstehe auch, dass man früher mal ein "Upper Midrange"-Verbraucher war, aber man muss auch die Grenzen der Fertigungsprozesse sehen und nach Leistungsbedarf (720p-2160p ist eine große Spanne 30-480 fps ebenfalls) und Vebrauchslimit einkaufen, wenn man dann eben ein oder zwei Modellnummern tiefer landet - wo ist das Problem? Man gewinnt Leistung, Effizienz und spart unter Umständen bei der Anschaffung noch Geld (GTX 1070 499€ UVP, RTX 3060 Ti 419€).

v_ossi schrieb:
FSR, DLSS, Freesync und Konsorten könnten dafür sorgen, dass man eben auch weiterhin mit maximal 300 Watt im Halo Produkt auskommen, aber man wirft lieber 'mehr Power' auf das Problem.

Die verlinkten Tests von TPU zeigen doch gut, dass auch sehr hungrige GPUs schon bei einem FPS cap sehr gut reagieren, man kann auch selbst Hand anlegen und die 4090 Ti generell ziemlich effizient machen:
https://www.igorslab.de/kuehler-bre...-den-kopf-stellt-und-die-radeons-schlaegt/12/

FSR/DLSS beeinträchtigen meist die Bildqualität, wenn jemand das nicht möchte, dann muss man das auch akzeptieren.
Adaptive Sync beeinflusst nicht wirklich den Stromverbrauch, außer du möchtest ein allgemeingültiges fps-cap formulieren (am besten genreübergreifend).

Beide Technologien sorgen sogar dafür, dass man die "alte" Hardware länger nutzen kann, wenn man die Kompromisse von DLSS/FSR eingehen will - adaptive sync benötigt halt einen kompatiblen Monitor, hat sonst quasi nur Vorteile (variable Framerates ohne Tearing).

Ich sehe einfach den Sinn dieses künstlichen Limits nicht, wenn man 800W gekühlt bekommt und man auf so eine laute Heizung im Gehäuse Lust hat - warum sollte man es verbieten? Solange eine neue GPU-Generation effizienter als die Vorherige ist und die "alten" Leistungsklassen von 100-300W angeboten werden, gibt es doch keinen objektiven Grund zu klagen.
Ergänzung ()

Skidrow1988 schrieb:
Überall soll man weniger Verbrauchen und wir hauen immer mehr raus.

Tun WIR nicht.
Im High-End gibt es erhöhten Verbrauch, das ist nicht falsch, dennoch bekommst du viel mehr Leistung als zu GTX 1000 Zeiten und das bei stark gesteigerter Effizienz.

Wenn man eine Karte in einem bestimmten Limit betreiben will, bekommt man das auch hin, siehe Link.

Optimal wäre es wenn alle GPUs ab Werk einen "Effizienzmodus" hätten und als Alternative einen "OC-Modus" bieten, einfach umstellbar direkt an der Karte.
 
Zuletzt bearbeitet:
Haldi schrieb:
Ich kann mir beim besten Willen nicht vorstellen wieso sowohl AMD als auch Nivida plötzlich Vorhaben 100% Performance plus für die nächste Generation einzuplanen.
Naja ich sag mal...weil es plötzlich möglich ist.

Es war ja in der Theorie schon immer möglich, wenn man nur genug Power reinschmeißen kann.
Aber die Architektur macht ja irgendwann beim Takt dicht und du kannst so viel Power reingeben wie du willst, es kommt nicht mehr raus.
Dann kannst du nur noch in die Breite gehen und mit zusätzlicher Power die Shaderzahlen steigern, das war aber bisher nicht wirtschaftlich, weil die Chips dann viel zu groß hätten sein müssen.

Jetzt mit N5 und im Falle von AMD starkem Fokus auf Performance/Fläche kann man die 100W mehr eben auch in was sinnvolles investieren.
 
Beg1 schrieb:
Tun WIR nicht.
Im High-End gibt es erhöhten Verbrauch, das ist nicht falsch, dennoch bekommst du viel mehr Leistung als zu GTX 1000 Zeiten - auch bei weniger oder vergleichbarem Stromverbrauch.
Und WIR stellen eben die Relation in Frage.
Wäre ein Verdoppelung der Leistung bei gleichem Verbrauch nicht auch gut (genug)?
Ist eine Verdreifachung der Leistung bei einer Verdopplung des Verbrauchs besser?

Beg1 schrieb:
Ich sehe einfach den Sinn dieses künstlichen Limits nicht,
Ähm... weniger Verbrauch?!
480fps z.B. haben doch nur noch homöopathischen Nutzen; genau wie 250Km/h auf der Autobahn auch keinen sinnvollen Vorteil bringen.
Vom Staubsauger bis zum Fernseher ist doch schon fast alles limitiert, warum ist das beim PC so abwegig?

Generell finde ich ganz persönlich es merkwürdig, wenn mit gesteigerter Effizienz argumentiert wird, solange der absolute Verbrauch steigt.
Ich meine, klar, tolle Sache, aber wäre es nicht wünschenswert generell weniger zu verbrauchen?

Meine rein private Consumer Elektronik wechsele ich z.B. immer, wenn ich an Qualität* gewinne und dabei absolut gesehen weniger Verbrauche.

*Qualität kann bei einem TV auch die reine Bildfläche sein, bei CPU/GPU ist es natürlich recht offensichtlich die Leistung.
 
  • Gefällt mir
Reaktionen: oem111 und Viper816
Die Tatsache, dass zwei Navi 32 mit je 7.680 ALUs in Summe 15.360 ALUs ergeben, was lange dem Stand der Gerüchteküche zu Navi 31 entsprach, könnte bedeuten, dass AMD intern über eine derartige Variante nachgedacht hat. Da eine solche Variante auch in den zuletzt glaubhafteren Gerüchten zu Navi 3x nicht mehr in Erscheinung trat, dürfte AMD dieses Ziel aber inzwischen aufgegeben, oder auch niemals verfolgt haben.
Ein solches Modell würde ich nicht so schnell abschreiben, und vor allem würde ich dem letzten Halbsatz nicht zustimmen. Es gab ja sogar mehrere Patente, die AMD für solch einen Ansatz angemeldet hat, und auch CB hat erst letzten Monat noch darüber berichtet:

GPU-Chiplets bei AMD: Das steckt im Patentantrag zur besseren Shader-Auslastung

Wovon ich eher ausgehe, ist, dass man sich ein solches Modell als potentiellen Konter auf Nvidia oder als neues Topmodell für nächstes Jahr zurückhält. Dieses Jahr wird man ein solches Modell mit Sicherheit noch nicht bringen, aber nächstes Jahr könnte man durchaus eines nachschieben, anstatt einfach nur höher taktende "Refresh"-Varianten auf den Markt zu werfen.
 
  • Gefällt mir
Reaktionen: danyundsahne
v_ossi schrieb:
Generell finde ich ganz persönlich es merkwürdig, wenn mit gesteigerter Effizienz argumentiert wird, solange der absolute Verbrauch steigt.
Ich meine, klar, tolle Sache, aber wäre es nicht wünschenswert generell weniger zu verbrauchen?
Wenn du die Hardware nicht nur zum Spielen sondern auch zum Arbeiten nimmst, verbrauchst du ja generell weniger, weil du bei gestiegener Effizienz schneller fertig bist.

Und auch beim Spielen dürften viele die Karten nicht voll ausfahren sondern sich auch öfters ein FPS Limit setzen, wodurch die Karten dann wirekt deutlich im Verbrauch sinken.
 
  • Gefällt mir
Reaktionen: GERmaximus
SaschaHa schrieb:
Es gab ja sogar mehrere Patente, die AMD für solch einen Ansatz angemeldet hat, und auch CB hat erst letzten Monat noch darüber berichtet:
Das von dir verlinkte ist aber beispielsweise basierend auf einem Patent von Ende 2021. Das ist viel zu spät für RDNA3. Wenn davon irgendetwas in zukünftigen Produkten wiederzufinden ist, dann definitiv nicht vor RDNA4.
 
  • Gefällt mir
Reaktionen: Colindo, Haldi und Viper816
@Taxxor Dem ersten Satz stimme ich mehr oder weniger vorbehaltlos zu, aber Spielen und Arbeiten trenne ich bei der Betrachtung eigentlich immer.
Wird etwas halbwegs sinniges mit Hardware unternommen, ist eine gesteigerte Effizienz auch bei absolut gestiegenem Verbrauch in meinen Augen gar kein Problem. Bei etwas trivialem wie Gaming finde ich es eben deutlich bedenklicher, wenn man vollkommen schmerzbefreit einfach nur nach mehr Leistung kräht.

So lange es keine Zahlen zu deinem letzten Satz gibt, halte ich das für ein Scheinargument. Die große Mehrheit der Karten wird wohl eingebaut und einfach benutzt. Ein Forum wie CB ist da wenig repräsentativ.
 
  • Gefällt mir
Reaktionen: Viper816
  • Gefällt mir
Reaktionen: Jan
@Linmoum
Das würde ich so nicht unterstreichen. Die Technologie selbst wird ja schon deutlich länger in Entwicklung sein, damit man einen entsprechend ausgeklügelten Patentantrag ja überhaupt erst stellen kann. Bis Ende nächsten Jahres könnte da durchaus schon ein fertiges Produkt erscheinen - als erster Probelauf sozusagen.

Ich denke aber, dass AMD ein entsprechendes Modell nur dann bringen wird, wenn Navi 31 nicht ausreicht, um mit Nvidia's Topmodellen konkurrieren zu können.
 
SaschaHa schrieb:
@Linmoum
Ich denke aber, dass AMD ein entsprechendes Modell nur dann bringen wird, wenn Navi 31 nicht ausreicht, um mit Nvidia's Topmodellen konkurrieren zu können.
Ich könnte mir auch vorstellen, dass eine Dual-Navi 32 zwar entwickelt wird, aber nur für den professionellen Bereich. Da ist für viele Anwendungen pure Rechenleistung wichtiger als die allerbesten Latenzen.

Könnte ich mir durchaus vorstellen, dass in Spielen da nicht viel mehr Performance raus kommt als bei Navi 31, wenn es eben doch nicht so einfach ist, das zu synchronisieren etc.
 
Maxminator schrieb:
und genau das ist es ja: deswegen hängt die Leistung zu 100% von den AMDs Treibern! Diese werden aber wesentlich von den jetzigen Treibern unterscheiden, werden wahrscheinlich wesentlich voluminöser.
Wahrscheinlich muss AMD dann fast jedes neues Spiel noch akribischer im Treiber berücksichtigen...
Bauchgefühl oder Fakt?
 
@stefan92x
Im professionellen Bereich wird man dann vermutlich eher auf Dual-CDNA3 setzen. Bei Spielen könnte ich mir schon vorstellen, dass Dual-Navi 32 den großen Single-Bruder schlagen würde, aber ggf. wieder mit Problemen wie Microrucklern. Aber ich schätze mal, dass ein solches Modell gar nicht nötig sein wird. Navi 31 sollte an sich schon beeindruckend schnell sein.
 
Novasun schrieb:
Eh nein. Es wäre nur ein 2ter Chiplet der sich das selbe Speicherinterface mit dem anderen teilt..
Ob das sinnig ist sei mal dahingestellt..

sag ich ja. Ergibt überhaupt kein Sinn. Logische Konsequenz wären 512-Bit. Sonst hätte man ein Single Navi32 auch mit 192-bit bringen können.
 
Skidrow1988 schrieb:
Ich hoffe, es gibt eine vernünftige 150 - 200Watt Lösung. Ich möchte keine 300+ Klopper haben. Ich weiß, den meisten ist das völlig egal, mir aber nicht.

Geht mir genauso. Ich habe es schon an anderer Stelle erwähnt und erwähne es wieder: Die 180 Watt meiner GTX 1080 finde ich schon arg grenzwertig. Mehr darf eine GPU imho nicht haben. Es soll mehr Richtung Effizienz entwickelt werden, das gebietet alleine schon die Klimakrise. Ich kann nicht verstehen wie es den Leuten bei diesen heißen Sommern und den teuren Strompreisen so egal sein kann, wie viel Watt ihr Rechner verbrät. Also ich habe weder Bock darauf, von 30°C+ im Gaming Zimmer, noch von meiner Stromrechnung erschlagen zu werden.
 
  • Gefällt mir
Reaktionen: Viper816 und Skidrow1988
@v_ossi
Klar ist weniger zu verbrauchen eine tolle Sache (Umwelt+Geldbeutel), dennoch verstehe und akzeptiere ich auch die Enthusiasten, denen die Effizienz weniger wichtig ist.

Ganz ehrlich, wenn wir hier nur über Gaming reden, wie rechtfertigt man dann 300W? Das ist doch DEINE persönliche Grenze und das nur für die GPU, warum sind 20% mehr so schlimm? Eine PS5 braucht nur ~200W, das sollte doch dann auch die Höchstgrenze für den gesamten PC sein. Fertigungsprozesse über 10nm gehören eigentlich komplett verboten und alte GTX-Karten müssen ersetzt werden.

Du rechtfertigst deine Neuanschaffungen mit deiner selbst aufgestellten Definition von Qualität, berücksichtigst du dabei auch die Energie/Ressourcen, die für die Herstellung benötigt werden? Stromverbrauch ist auch nicht alles, wenn man beispielsweise eine PV-Anlage hat oder in einem Land wohnt, wo Strom fast nichts kostet...

Mir fallen locker 100 Beispiele ein, wo Beschränkungen mehr bringen würden (Autos z. B.), trotzdem bin ich nicht in Autoforen unterwegs und deraile jeden Thread mit Verbrauchsdiskussionen.
Doppelt sinnlos, wenn man über Gerüchte diskutiert, die ursprünglichen 800W waren ja offensichtlich falsch.
 
  • Gefällt mir
Reaktionen: Vitec
floh667 schrieb:
Ich hoffe, dass dann auch endlich mal effizient Tests Einzug erhalten mittels FPS Cap. Einmal bei 60 FPS und einmal bei 144 und dabei den Verbrauch aller Karten messen. Bei exakt gleichen Grafik Einstellungen versteht sich.
Das Problem dürfte hier sein, dass hier Karten unterschiedlich weit entfernt vom Idealpunkt betrieben werden und somit man so verzerrt. Da halte ich für aussagekräftiger, die Karten stock zu betreiben und dann fps/Watt zu vergleichen.
 
Taxxor schrieb:
Naja ich sag mal...weil es plötzlich möglich ist
Ja... Nein... Nein... Ja...
Die ganze GPU Planung hat ja schon längst vor Jahren begonnen. Da wurde ein Ziel gesetzt was die neue Generation leisten soll und durch was dies erreicht wird.
Die werden sich nun nicht einfach so gedacht haben: "Wenn wir die Chips 30% grösser machen und 100W mehr verbraten haben wir anstatt 60% 100% Mehrleistung!"

Entweder sind da die Spione bei nVidia gut genug gewesen und die 600W TDP Karte wird so kommen also wird die Karte benötigt um Konkurrenzfähig zu sein, oder das Management hat gesehen "die Architektur läuft besser als erwartet, das ist unsere Chance vor nVidia zu stehen! Wir müssen die Graka unter allen Umständen schneller machen!"

Aber ich wette mit dir in allen fällen das die Graka wenn sie wirklich 100% mehr Performance hat, ursprüngliche nicht so geplant war.
 
aid0nex schrieb:
Es soll mehr Richtung Effizienz entwickelt werden, das gebietet alleine schon die Klimakrise.
Wird es doch. Niemand wird gezwungen, eines der Topmodelle zu kaufen. Nach unten hin gibt es zahlreiche Modelle, die weniger Strom benötigen.
 
Zurück
Oben