Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung
Die Radeon RX 7900 GRE und die Radeon RX 6950 XT sind identisch konfiguriert: Gleich viele Shader-Einheiten, gleiches Speicherinterface, gleicher Speicher und auch sonst passt alles überein. Dies ist perfekt, um den genauen Unterschied zwischen den AMD-Architekturen RDNA 2 und RDNA 3 zu untersuchen.
war doch bei den CPUs auch so
zen zen+ und zen2 waren der weg die chiplets zu verstehen und ab zen3 war es genau das wo sie hin wollten
hoffe also auf RDNA5
Weil ein 1,07 Billionen Dollar Unternehmen ganz andere Kapazitäten in seinem Hauptgeschäftsbereich hat, in Sachen Finanzen, "Man-Power" und Entwicklungsmöglichkeiten als ein einzelner Geschäftsbereich eines 173 Mrd USD Unternehmens, genannt Radeon Technology Group. Diesen Aspekt vergessen einige Leute immer gerne oder betiteln es als Ausrede, was es aber nicht ist sondern es ist einfach Fakt.
Sissy1973 schrieb:
sie haben das Histrosich immer gemacht wenn AMD knapp dran war
Ich erinnere mich da historisch aber auch noch an Ganz andere Zeiten. Vielleicht bin ich schlicht auch älter und weiß da einfach noch von Zeiten wo andere noch nie was von gehört haben in ihren jungen Jahren.
Aber gerade bezogen auf die nicht gestiegene Rasterleistung... RT-Leistung die ja teilweise über 20% gestiegen ist, scheint ja für viele auch ein schlagendes Argument zu sein (leider).
@Ko3nich ist aber nicht so. wenn du den auto vergleich machen willst: porsche 991 turbo ist bei gleicher leistung eine halbe sekunde langsamer auf 200 als porsche 992 turbo weil beim 992 das getriebe schneller schaltet.
Resteverwertung für China.
Hoffen wir mal für AMD das Morgen der Knall auf der GC stattfindet und FSR 3 vorgestellt wird und es hoffentlich DER banger wird. Ansonsten wird es langsam dunkel im AMD Keller.
AMD gibt die IC-Bandbreite seit RDNA 3 anders als bei RDNA 2 an und spricht viel mehr ovn einer effektiven Bandbreite als von einer theoretischen. Und die effektive Bandbreite bei der GRE gibt AMD entsprechend niedrig an.
Mir fiel das auch auf, jedoch bezogen auf eine Aussage im RX 7600 Test:
Und auch der Infinite-Cache ist mit 32 MB genau gleich groß. Dieser entspringt zwar der zweiten anstatt der ersten Generation, der Daten weniger oft hin und her kopieren muss. Interessanterweise arbeitet dieser auf Navi 33 aber nicht schneller als auf Navi 23, während das Pendant auf Navi 31 noch doppelt so viel Bandbreite aufweist wie auf Navi 21.
Seit dem ging ich auch davon aus, dass die 2t Gen des IC pauschal doppelt so schnell Daten umherschieben kann, im Vergleich 6650XT vs 7600 wäre das fast schon eine Voraussetzung.
Ansonsten noch am Rande:
Allerdings ist der Infinity Cache auf der RX 7900 GRE mit 64 MB nur halb so groß wie bei der RX ______ und liefert mit 1,7 TB/s statt 2,1 TB/s auch etwas weniger Bandbreite.
RDNA 3 im Chipletdesign hat doch zwei Taktraten (Taktdomains). Welcher Takt wurde den jetzt auf 2 GHz festgemacht und wie hoch ist dann der zweite Takt? Das war doch einmal der Shadertakt und einmal der Takt des Front-Ends, der mit den Chiplets im anderen (höheren) Takt mit den MCDs kommuniziert.
AMD hat als MILLIARDEN Dollar Konzern keine Ausrede, da sie selbst Milliarden in R&D investieren.
Dass AMD im 5ten Jahr nach Turing immer noch keine Antwort auf die Nvidia Tensorcores hat, ist eigenes AMDs Problem. Am Geld scheitert es nicht. Investitionsmittel haben sie selbst genug.
Wenn wir also schon über Fakten reden: Mit 5 Milliarden Dollar in der Kasse zieht AMD nun zumindest mit Nvidias R&D Budget aus 2022 gleich.
Fehlschläge, Mißerfolge in Projekten und Forschungsbudgets und unabgeschlossene Business Cases, die nachher nicht liquidiert werden können, hat auch Nvidia.
Nvidia haut aber genau diese Sachen dann auch in den Markt als Pionier und Innovationstreiber.
Und das Ganze während nun auch einige Medien endlich mal AMDs Anti Konsumerverhalten, Software/Treiber Defizite und sich wiederholendes Marketingfiasko offen ansprechen. Good Guy AMD ist nur noch ein Meme.
Also darf man AMD nun endlich bitte - wie Intel und Nvidia - dann auch dissen bei diesen Fails.
Da RDNA3 taktnormiert nicht viel besser ist als RDNA2 muss höhere Leistung also durch mehr Takt oder mehr Einheiten kommen (was jetzt aber auch nicht ungewöhnlich ist). Leider klappt ersteres nicht so gut wie vermutlich geplant (?) und letzteres haben wir so wie AMD die Karten platziert eigentlich nur bei N31. Gut, die 7600 hat mehr CUs als die 6600, aber N33 und N23 sind im Vollausbau identisch groß.
Zusätzlich hängt die Software-Abteilung auch mal wieder hinterher. Dual-Issue ist zumindest z.T. eine Treibersache, da hatte ich ursprünglich die Hoffnung, man würde noch mehr sehen. Dürfte aber wohl mittlerweile nix mehr groß kommen.
FSR3 lässt ebenfalls auf sich warten (vielleicht hören wir morgen was) und die AI-Einheiten von RDNA3, wenn auch nicht mit Tensor-Cores zu vergleichen, drehen bisher auch noch Däumchen. Immerhin haben sie erkannt, dass sie da mal was machen müssen.
Nach wie vor scheint die GPU-Abteilung (besonders der Software-Teil) bei AMD keine allerhöchste Priorität zu genießen. Naja, bei nVidia wohl auch nicht mehr, wenn man sich deren KI-Bestrebungen so ansieht...
Mobile lässt sich immer schwer vergleichen meiner Meinung nach. Tun wir mal so als würde Nvidia das nicht kastrieren und kunden täuschen mit zig versionen und TDPs. Aber am Desktop sieht man normal was das Ding wirklich kann.
Über 90W ist das bei der 7600S kaum noch eine Steigerung. Die 7600 Desktop hat noch ein paar CUs mehr, allerdings sollte auch da über 100W kaum noch was drin sein. Die 4060 Laptop ist gegenüber dem Desktop unbeschnitten. Hier könnte man vielleicht noch darüber diskutieren ob 110W sinvoll wäre, alles in allem ist das PT schon gut gewählt. Bei den anderen RDNA3 Karten ist etwas mächtig schief gelaufen. Trotz Fertigungsvorteil kommen sie auch am Sweetspot nicht an Ada heran. Dual Issue scheint in den meisten Spielen bisher auch noch nicht so gut zu funktionieren wie bei NVIDIA.
Und das Ganze während nun auch einige Medien endlich mal AMDs Anti Konsumerverhalten, Software/Treiber Defizite und sich wiederholendes Marketingfiasko offen ansprechen.
No way - schau mal die Preise der alten 6800 XT an. Die beginnen bei 540 Euro.
Meine Vermutung:
7800XT --> ab 650 Euro
7700XT --> ab 500 Euro
Edit 25.8.:
Jetzt ist die Katze aus dem Sack, die 7700XT kostet 490 Euro (also fast getroffen). Bei der 7800XT bin ich ziemlich erstaunt, dass sie nur 550 Euro kostet. Trotz des geringen Preisunterschieds soll die 7800XT 22% schneller sein.
Eigentlich ein klarer Fall zugunsten der 7800XT. Mal schauen, wie hoch der Verbrauch ist.
Wichtig ist, dass man nicht die falschen Schlüsse aus dem Artikel zieht. Ein Test bei gleichen CUs und gleichem Takt bei weitgehender Elimination anderer Faktoren wie Powerlimit ist im Grunde genommen ein IPC-Test. Der zeigt, dass RDNA3 gegenüber RDNA2 kaum zulegt.
Warum die Hinweis auf die Hinzunahme von Verbrauch dennoch richtig sind, zeigt ein Blick in die Vergangenheit.
Jeder User würde mir zustimmen, dass RDNA2 eine gelungene Generation ist. Die hohe Performance/Watt bei noch nie dagewesenen Taktraten setzte sich deutlich gegenüber RDNA1 ab.
ABER: Zum Erscheinen der 6700XT hat Computerbase einen IPC-Test gemacht. Und siehe da: RDNA2 war bei gleicher CU und gleichem Takt (also analog zum Test heute) sogar schlechter als die Vorgängergeneration.
Das war aber total egal, weil man statt 2GHZ Takt und Taktraten wie 2,7GHz sah bei ähnlicher Leistungsaufnahme. https://www.computerbase.de/2021-03..._22_ermoeglicht_den_dreigenerationenvergleich
Dass RDNA3 dennoch eine Enttäuschung ist, er die geringe Performance/Watt-Verbesserung gegenüber RDNA3. Bereits bei niedrigen Taktraten nuckelt RDNA3 nur so den Strom aus der Steckdose.
Und das trotz 5nm-Fertigung der Shader. Die hohe theoretische Bandbreite, die RDNA3 hat wird kaum genutzt. Leistung/Bandbreite ist klar schlechter als RDNA2. Ein deutliches Indiz, welche die kursierenden Hardware-Bug-Gerüchte bestätigt.
Bethesda bestechen, um DLSS zu verhindern in Starfield. Ging durch sämtliche Tech Kanäle und wurde sogar unerwartet negativ von den - üblicherweise gegenüber Nvidia kritischen - Tech Youtubern dargestellt. Sogar und ausgerechnet das AMD subreddit hat sich negativ zur AMD Aktion bei Starfield geäußert. Hast Du ggf. verpasst die Debatte?
Such mal nach AMD's anti consumer FSR move im Kontext Starfield