Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

Taxxor schrieb:
Warum sollte es das sein? Ob du dein Messequipment an die Nvidia oder die AMD Karte hängst, ist dem Messsystem doch egal^^
Was du vmtl meinst ist die Sensoren in der Software abzulesen, was aber nix mit messen zu tun hat(und ja, das wäre tatsächlich schwierig, weil erst RDNA3 hier den kompletten Verbrauch ausgibt).
ne, bei Nvidia kannste den Messwert wohl an einer Stelle abreifen. Bei AMD wohl an mehreren. Ist aber halbwissen. Habe ich mal bei IGOR aufgeschnappt. Wer weis genau bescheid? Gruß
 
Du steckst die GPU in einen Riser Slot um die PCIe Power abzugreifen, und dann führst du die restlichen stromstecker durch die Messeinrichtung, in CBs Fall das Powernetics v2 oder vorher mit PCAT:
1692957901333.png


Das ist identisch für egal welche GPU, ob AMD, Nvidia oder Intel.


Wie gesagt, was du meinst ist, wo auf der Karte überall Sensoren sitzen, mit denen du den Wert in Software wie HWInfo auslesen kannst, aber das ist eben nicht Messen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Tzk
Bei diesen Strommessungen ist wohl jedenfalls das Powernetics v2 deutlich besser/genauer, weil es eine höhere Auflösung hat als das von Nvidia.
Ist auch nicht ganz unbedeutend, wegen diese vielen ganz schnellen Lastspitzen.
 
Der Grund schlechthin für neue Architekturen sind Effizienz Verbesserungen. Ohne Verbrausmessung sagt die Normierung der Leistung recht wenig aus.
 
Atnam schrieb:
Bei BG3 fehlt aber z.B. auch DLSS 3
Es ist auch "nur" DLSS 2 dabei.
Beschwert sich auch keiner drüber oder ?

FSR2 kommt anscheinend mit dem Release auf der Playstation 5 am 6.9
DLSS 3 bringt hauptsächlich FG mit.
Der Unterschied zwischen DLSS2 und DLSS3 ist sicher geringer als zwischen FSR1 und FSR2.
Da sieht Nvidia doch gleich viel besser aus. Wen interessierst später ne Meldung, dass irgendwas nachgereicht wurde, wenn die ganzen Release-Geschichten auf den Gamingseiten durch sind.
Ach ja, XeSS ist gar nicht implementiert.
Und dabei heisst es doch immer so schön, dass es doch so einfach wäre, die Techniken zu implementieren insbes. Wenn schon eine eingebaut ist und das es eine Sauerei ist, dass dies und jenes nicht eingebaut ist.

Aber vermutlich ist es nur dann ein Problem, wenn es einen selbst betrift.

Cunhell
 
  • Gefällt mir
Reaktionen: daknoll
Taxxor schrieb:
Ignorierst du bewusst schon seit 3 Posts den Punkt, dass der genaue Verbrauch beider Karten bei 2GHz gefragt ist?

Die GRE taktet schon nur auf 2150MHz bei denen sie ihre ~250W verbraucht, die 6950XT verbraucht ihre ~340W bei ~2400MHz.
Gut möglich, dass die 6950 auf 2GHz nur noch wenig mehr verbraucht als die 7900GRE mit 2GHz,
aber das wissen wir erst, wenn es getestet wurde.

Apropos:

Meine 4090 ist bei den gleichen 250W zwar immer noch ~60% schneller bzw bräuchte umgekehrt für die Leistung der 7900GRE maximal 150W, aber ja, echt der Wahnsinn, wie effizient diese GRE im Vergleich mit 3 noch ineffizienteren Karten aussieht!!!
Haha klar eigentlich ist es egal welche du nimmst finde wenn man die möglichkeit hat nimmt man die neueste

Denke ja nicht das die 7800 xt da jetzt einen Unterschied macht eigentlich haben AMD sich die 7800 xt kaputt gemacht haha
 
cunhell schrieb:
Aber vermutlich ist es nur dann ein Problem, wenn es einen selbst betrift.
Ist BG3 ein Nvidia sponsored Titel? Ich glaube nicht oder?

Falls nein dann müsstest du dich bei Larian Studios beschweren und nicht über Nvidia kotzen.
 
@WulfmanGER
Das könnte da aber auch nur deshalb stehen weils auf Nvidia Gforce Now verfügbar ist. Und dafür müsste es nicht direkt ein Nvidia sponsored Title sein.
 
WulfmanGER schrieb:
ich muss mir beim starten ein riesiges NVIDIA-Logo anschauen .... also würde schon sagen das Nvidia seine Hände im spiel hat...
Sag doch sowas nicht. Hat sicher nichts zu bedeuten. Genauso wenig wie die Aufmachung auf der Nvidiaseite zu BG3 "https://www.nvidia.com/en-us/geforce/news/baldurs-gate-3-and-even-more-dlss-games-this-august/"

Cunhell

PS: Larian Studios’ critically acclaimed Baldur’s Gate 3 has been supported by our GeForce Game Ready Drivers since its Early Access launch 3 years ago.
 
Zuletzt bearbeitet:
cunhell schrieb:
PS: Larian Studios’ critically acclaimed Baldur’s Gate 3 has been supported by our GeForce Game Ready Drivers since its Early Access launch 3 years ago.
Und das sagt jetzt was genau aus? Nvidia bringt für jedes größere Game optimierte Treiber raus. Auch AMD sponsored Titel.
Ihr werdet vermutlich recht haben aber dann würde ich mich trotzdem mal primär an Larian Studios wenden warum sie FSR2 nicht direkt reingepackt haben. Einen Monat Verzögerung bringt da doch keinen Vorteil für Nvidia finde ich. Das Spiel hat ja schon Probleme mit AMDs Treibern und da kommt ja leider auch nicht wirklich viel von AMDs Seite zu. Vielleicht ist das ja auch ein Grund warum es noch kein FSR2 gibt weil AMD noch keinen optimierten Treiber für das Spiel veröffentlicht hat?
Ist das jetzt auch Nvidias Schuld?
 
@Wolfgang danke für den Vergleich. Wie wäre es aber mit einem einen ähnlichen Artikel über Ada vs Ampere? ZB 4070 vs 3070. Sind ja sehr vergleichbar zumindest was die Auafûhrungseinheiten angeht. Die neue 70er ist ja nur 25% schneller als die alte bei einem 40% hoheren Takt. Da scheint sich in Sachen Shaderleistung auch nicht viel getan zu haben.
 
Atnam schrieb:
Nvidia bringt für jedes größere Game optimierte Treiber raus. Auch AMD sponsored Titel.
Bei Starfield sogar noch vor AMD^^
 
  • Gefällt mir
Reaktionen: Atnam
Atnam schrieb:
Das Spiel hat ja schon Probleme mit AMDs Treibern und da kommt ja leider auch nicht wirklich viel von AMDs Seite zu
Atnam schrieb:
Ist das jetzt auch Nvidias Schuld?
Erstmal vorne weg, selbstverständlich, ganz klar, ohne Frage!

Dann zu Problemen, meinst du hier und da mal abstürze? Ich meine ich hatte in ~8 Stunden mit einer 5700er da einen absturz, danach kam dann aber eine 7900xt rein. Jetzt bei 15,6 Stunden noch kein weiterer Absturz. Ich denke der schnitt ist nicht soo schlecht, hab ich schonmal schlechter gesehen. (Ich lasse es immer mit vulklan api starten)
 
Alexander2 schrieb:
Erstmal vorne weg, selbstverständlich, ganz klar, ohne Frage!
:daumen:
Alexander2 schrieb:
Dann zu Problemen, meinst du hier und da mal abstürze?
Jo hab da jetzt diverse Posts in Baldurs Gate 3 Subreddit gesehen. Das Problem hat sich wohl größteils mit dem letzten Treiber vom 21.8 erledigt aber davor haben sich öfters Leute beschwert das das Spiel teilweise nichtmal starten wollte.

Ich kenn mich mit FSR nicht aus und weiß ehrlich gesagt nicht inwiefern AMD eine Unterstützung von FSR2 im Treiber für Spiele spezielle aktivieren muss oder ob das einfach so Problemlos funktioniert.
 
Atnam schrieb:
:daumen:


Ich kenn mich mit FSR nicht aus und weiß ehrlich gesagt nicht inwiefern AMD eine Unterstützung von FSR2 im Treiber für Spiele spezielle aktivieren muss oder ob das einfach so Problemlos funktioniert.
FSR2 muss genauso wie DLSS vom Entwickler in die Engine eingebaut werden, damit es die nötigen Bewegungsdaten bekommt und ein Bild rekonstruieren zu können.
 
Das ist mir klar, war aber nicht meine Frage.
 
syfsyn schrieb:
Der grund ist klar um die zusätzliche fp32 ausführung machen zu können brauicht es mehr cache im cu und genau der fehlt.
Und mal wieder ist dein Beitrag weitgehend falsch. Vor ein paar Wochen behauptest du, dass der L2-Cache keine Bandbreite spart, jetzt dass es mehr braucht um die neuen Vec-Alus zu füllen.

Und wieder mal hast du hier das meiste mit viel Halbwissen versucht darzustellen und am Ende ist es wie immer weitgehend falsch.

AMD hat im Zug der neuen Vec32+32 sowohl das Registerfile als auch den L1d Cache und den L2-Cache vergrößert. Die Probleme von RDNA3 liegen auch nicht daran, das man diese nicht auslasten kann, sondern wie der zweite Pfad angesprochen wird.

Da 4K als auch KI-Berechnungen sowie RT immer wichtiger werden, gewinnt Wave64 wieder an Bedeutung. Da man nun bei AMD aber nicht einfach die Vec32 auf Vec64 "aufpumpen" wollte, weil dann Ressourcen ungenutzt sind, hat man einen zweiten Pfad in die Vec32 eingeführt. Die Vec32 verhält sich also entweder wie eine Vec32+32 oder eine Vec64.

@ETI1120 und ich hatten darüber bereits ausführlich geschrieben. Die neue Vec32 kann also entweder einen Wave64-Befehl in einem Takt ausführen, oder zwei Wave32-Befehle. Nur letzteres unterliegt einigen Besonderheiten.

1. Die beiden Befehle müssen von einander unabhängig sein. (Hürde 1).
2. Die beiden Befehle dürfen maximal 2 Vektorregister und 1 Skalar-Register ansprechen.
3. Es darf eine Konstante genutzt werden, nur muss diese Konstane bei beiden Befehlen gleich sein.

Dazu kommt, dass es nur FMA3 gibt, statt FMA4 und damit bei MAC/MAD unweigerlich ein Register zerstört wird.

All das sind Einschränkungen - ein Teil - die dazu führen, dass die Vec32 nicht immer voll ausgenutzt werden können.

Das hat nichts mit dem Cache zutun, sondern ist ein klassisches Auslastungsproblem.

Hier würde der Cache auch nicht helfen. Denn in den Shadern müsste entweder genug Daten für einen Wave64 zusammen kommen oder ein zweiter Wave32 der auch wirklich genutzt werden kann.
Taxxor schrieb:
Bei AMD würde ich da direkt mit Vega zu RDNA1 kontern
Es ist bei GPU allgemein nicht so gut von IPC zu schreiben. Wie gut eine Grafikkarte am Ende ist, hängt von der Auslastung der Shader zusammen und das ist primär abhängig davon, wie die Rechenwerke organisiert werden.

IPC-Steigerungen bei GPUs kommen in der Regel durch Änderung an der Struktur der Verwaltung der Shader.
 
  • Gefällt mir
Reaktionen: ETI1120 und Slayn
Atnam schrieb:
Und das sagt jetzt was genau aus? Nvidia bringt für jedes größere Game optimierte Treiber raus. Auch AMD sponsored Titel.
Ihr werdet vermutlich recht haben aber dann würde ich mich trotzdem mal primär an Larian Studios wenden warum sie FSR2 nicht direkt reingepackt haben. Einen Monat Verzögerung bringt da doch keinen Vorteil für Nvidia finde ich. Das Spiel hat ja schon Probleme mit AMDs Treibern und da kommt ja leider auch nicht wirklich viel von AMDs Seite zu. Vielleicht ist das ja auch ein Grund warum es noch kein FSR2 gibt weil AMD noch keinen optimierten Treiber für das Spiel veröffentlicht hat?
Ist das jetzt auch Nvidias Schuld?
Und warum frägt bei Starfield keiner den Spielehersteller sondern unterstellt direkt AMD sie hätten DLSS verhindert?
Immer schön mit zweierlei Maß messen.

Cunhell
 
  • Gefällt mir
Reaktionen: Slayn
syfsyn schrieb:
eine gpu ist linear folglich gibt es keine ipc sondern nur Mehr shader und mehr Takt.
Punkt und Kommata?
Oder sind die gerade ausverkauft
 
Zurück
Oben