Test AMD RDNA 2 vs. RDNA 3: RX 7900 GRE vs. RX 6950 XT bei gleicher Rechenleistung

Taxxor schrieb:
Das ist das Datenblatt, du hast den Test erwähnt, da wurden real 248W gemessen.

Und nochmal, das hat nichts mit dem Test hier zu tun, hier werden beide Karten auf 2GHz begrenzt und auch beide unter 300W gelegen haben, die Frage ist wie groß der Abstand bei 2GHz noch ist.
Denke wichtig ist ja das die 7900 GRE besser ist und mit ziemlicher Sicherheit auch weniger zieht

CB sollte das aber auf jeden Fall noch einfügen!

Vielleicht hilft dir das etwas...

Wie du siehst die Karte ist schon echt der Wahnsinn! Echt sparsam!

Screenshot_20230825-093035.png
 
Zuletzt bearbeitet:
Für mich ist das Argument, den Vergleich zwischen Navi 33 und Navi 23 aufgrund der teilweise limitierenden Speicheranbindung außen vor zu lassen und stattdessen diesen Vergleich zwischen RX 7900 GRE und RX 6950 XT zu fahren, etwas unsinnig. Denn beim jetzigen Duell gibt es zwei große Unbekannte: die zusätzliche Latenz durch das Chiplet-Design und der nur halb so große Infinity-Cache der RDNA-3-Karte. Beim Duell zwischen RX 7600 und RX 6650 XT hingegen ist so ziemlich alles identisch: monolithischer Chip, Speichergröße, Speicheranbindung, 32MB Infinity-Cache und fast identische Taktraten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Der Test ist eher nicht aussagekräftig.

Testziel war es die Architektur zu prüfen.
Man hätte gegenprüfen müssen mit W10Pro und W11Pro und einem aktuellen GNU Linux - wie gentoo linux als Beispiel. Bei mir ging der sofortige Wechsel von der Ryzen Grafik zur dedizierten AMD Grafik ohne Softwareeingriff in gentoo linux.

--

Ich werde sehen ob der Kauf einer MSI Radeon 6800 Z Trio im Mai 2023 eine gute Entscheidung war.

Für mich ist die neue Generation nur eine Kostenersparnis in der Fertigung.

Der Kauf war aufgrund der problemloseren AMD Treiber das Geld Wert. Für mich ist es belanglos ob die NVIDIA 960 GTX 4GB oder W10Pro oder ASUS als Monitorhersteller der Schuldige ist. Es hakt bei einer aktuell NVIDIA unterstützten Karte im Testzeitraum Februar 2023 bis Mai 2023 in W10Pro. Der Verbrauch ist unterirdisch. Der ASUS Monitor brauchte mehrere Sekunden für das Initialisieren. Warum es bei deiner 6600XT oder 6800 non XT nicht passiert - muss mir mal NVIDIA erklären. Der Monitor wurde 2021 gekauft. Hinzu kommt der fast nicht vorhandene GNU Linux Support - der Zwang veraltete Kernel zu verwenden - weil der Nvidia Binärtreiber nicht kompatibel war von 2006 bis 2021 & 2023. Lüfteransteuerung funktioniert seit der 600er Nvidia Serie auch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maggotno999
[wege]mini schrieb:

Es ist ein ähnlicher Evolutionssprung wie ihn nVidia von Ampere auf Ada vollzogen hat. Ada ist Ampere Next (wie auch Blackwell Ampere Next Next ist) wobei nVidia sich auf Verbesserungen der KI und RT-Architektur beschränkt hat, AMD als große Aufgabe die Ausführung als Chiplet-Design mit den nötigen Anpassungen hinsichtlich Latenzen in den Fokus gerückt hat. Die Ausführung der FP32-Einheiten als dualissue ist da - vom Designstandpunkt aus gesehen - eine kleinere Änderung. Treiberseitig ist RDNA3 ungleich komplexer, aber das macht auch eine andere Abteilung...
 
Es hätte fast schon gereicht zu erwähnen, dass bei der Umstellung von RDNA2 auf 3 das Hauptaugenmerk auf die Umstellung auf das Chipletdesign gelegt worden ist.
Da wäre es kontraproduktiv gewesen, gleichzeitig auch noch am Chip selbst zu viel verändern zu wollen, da man dann bei womöglichen Fehlern nachher gar nicht mehr weiß, wo man mit der Suche und deren behebung anfangen soll.
Intel hat das auch mit dem Tik-Tok-Modell damals so gehandhabt, um nicht zu viele Baustellen auf einmal zu generieren.
Bei der Garfiksparte hat man das missachtet, weil man mit einem Knall zünden wollte - ist aber nach hinten losgegangen, extrem sogar.
Grundlegende Technikverbesserungen zur Leistungssteigerung können jetzt erst mit RDNA4 gemacht werden.
Quasi das Equivalent zu den Optimierungsvorgängen wie bei der Ryzen Technologie.
Immerhin hat man RDNA3 nun auch kleine Extraeinheiten mitgegeben, die wohl wie bei NVidia für eine Verbesserung bei der Raytracingleistung beitragen.
Ich hoffe jedenfalls das Beste, dass wir mit der 8000er Serie dann gute und bezahlbare Produkte erhalten werden, wo man dann auch in Sachen Effizienz wieder einen höheren Sprung machen wird.
NVidia wird vermutlich auch weiterhin im Schnitt immer etwas effizienter und besser in Raytracing bleiben und mit einem Produkt die Messlatte in Sachen Leistungskrone innehaben, aber das wäre ja durchaus zu verschmerzen, solange man von AMD trotzdem ein rundes Gesamtpaket für sein geld erhält.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Casillas
yamiimax schrieb:
Man schau dich den Einzeltest der Karte an
Ergänzung ()


Klar das ist echt günstig Viel Spass damit!
Ergänzung ()


260 Watt steht im Solotest der Karte in CB

Bitte!

Auch der Preis ist echt viel günstiger im bundle als die 6950 xt

Die 6950 XT wurde mit 2GHz getestet? Habe ich nirgends gesehen.
Ergänzung ()

yamiimax schrieb:
Denke wichtig ist ja das die 7900 GRE besser ist und mit ziemlicher Sicherheit auch weniger zieht

CB sollte das aber auf jeden Fall noch einfügen!

Vielleicht hilft dir das etwas...

Wie du siehst die Karte ist schon echt der Wahnsinn! Echt sparsam!

Anhang anzeigen 1390256

Sorry, aber ist das wirklich so schwer zu verstehen? Die 6950 XT taktet mit 2400-2650MHz. Es geht hier um einen Architekturvergleich bei GLEICHER Taktrate, also ~2GHz. Das hat nichts mit den von dir zitierten Tests oder Datenblättern zu tun. Und hier wäre es schön gewesen, wenn man, neben dem Leistungsvergleich, auch einen Vergleich des Verbrauchs sehen würde.
 
Zuletzt bearbeitet:
ikarus1603 schrieb:
Danke für den Test. Schade, dass RDNA3 nicht sonderlich viel an Mehrleistung bringt.
Dachte ich bei Release auch. Daher läuft hier noch eine Polaris und wird wohl erst ersetzt wenn RDNA 4 einschlägt.
 
Eggcake schrieb:
Die 6950 XT wurde mit 2GHz getestet? Habe ich nirgends gesehen.
Ergänzung ()



Sorry, aber ist das wirklich so schwer zu verstehen? Die 6950 XT taktet mit 2400-2650MHz. Es geht hier um einen Architekturvergleich bei GLEICHER Taktrate, also ~2GHz. Das hat nichts mit den von dir zitierten Tests oder Datenblättern zu tun. Und hier wäre es schön gewesen, wenn man, neben dem Leistungsvergleich, auch einen Vergleich des Verbrauchs sehen würde.
Du siehst doch den Verbrauch der ist niedriger als die 6950 xt?
 
Taxxor schrieb:
Vergleich bei gleicher Shaderzahl,
Wobei man sagen muss, was will man mit purer Shaderzahl noch großartig etwas reißen? Irgendwann ist die Form von Leistungssteigerung Tod gemolken wenn man nicht über mehr Takt geht. Bei Nvidia sieht es wenn man rein von den Shader ausgeht auch kein Stück besser aus. Das die 4090 so eine Brecher ist liegt halt an der fette Menge an Shadern.
 
BxBender schrieb:
Es hätte fast schon gereicht zu erwähnen, dass bei der Umstellung von RDNA2 auf 3 das Hauptaugenmerk auf die Umstellung auf das Chipletdesign gelegt worden ist.
Nur das Chipletdesign? Nö, AMD hatte das auf den Folien klar anders dargestellt: Es wurde von Verbesserungen beim Raytracing gesprochen und eben auch an der Architektur die Weiterentwicklung mit den Dual Issue Einheiten geannt.
 
  • Gefällt mir
Reaktionen: bad_sign
ikarus1603 schrieb:
Inflation hin oder her bei 600€, für ein Modell mit eher notdürftigem Kühler, für eine 4070 (Mittelklasse) komme ich mir arg verarscht vor und da ich mir nicht auch nicht betrogen vorkommen will kann ich sowas leider nicht kaufen.

Die 4070 bietet die Leistung der 3080 und mehr Speicher.

Desweiteren ist die 4070 günstiger als die 3080.

Im Grunde genommen ist die 4070 die einzige Karte im Lineup von Nvidia die relativ fair bepreist ist und zum Preis des Vorgängers zumindest ein bißchen besser aufgestellt ist. Siehe 12GB VRAM. Die anderen Karten von Nvidia sind für ihre Leistung zu teuer...

Da im Beitrag von Verarschung und Betrug geschrieben wird, ist das keine objektive Betrachtung :-)
 
Inxession schrieb:
Grundsätzlich muss die Rohleistung immer Nativ getestet werden.
Es gibt nun mal kein "richtigeres" Bild als das Originale.

Alles was DLSS/FSR und Konsorten macht, ist das Bild verfälschen.
Natürlich kann dies besser aussehen.
Ich geb dir grundsätzlich bei non RT Performance Recht.
Sobald aber RT dazu kommt sieht es ja sehr danach aus das das klassische rasterizing einfach nicht mehr zeitgemäß ist und ohne RT bieten die meisten Top Karten immernoch sehr gut Performance.
Ich bin der Meinung das man gerade bei der 4k Performance viel zu viel von den Mittelklasse Karten erwartet deren Zielgruppe halt in sehr vielen Fällen sowieso keinen 4k Bildschirm hat.

Und von Spielen die schlecht performen weil sie in Engines geprügelt werden die für den Umfang des Spiels überhaupt nicht gemacht sind, z.B. Jedi Survivor oder Hogwarts Legacy, fangen wir besser gar nicht erst an 🙃

Und DLSS und FSR haben echt enorme Sprünge gemacht was die Qualität angeht seit den ersten Releases.
Wenn mir vor 4 Jahren jemand erzählt hätte das man durch AI Supersampling aufeinmal das 4fache an FPS rausholen kann bei fast identischer Bildqualität hätte ich denjenigen für verrückt erklärt.

Und gerade in Sachen Bildqualität hat das ganze wirklich enorme Fortschritte gemacht. Ich wüsste z.B. nicht warum man überhaupt noch irgendeine andere Art von AA nehmen sollte außer DLAA, selbst wenn man DLSS generell aushat, weil DLAA einfach jeder AA Methode überlegen ist.

DLSS 3.5 und die dort enthalten Denoiser sind offensichtlich dem klassischen Rasterizing auch überlegen weil rasterizing hier auch nicht mehr hinterherkommt und das Problem wird mit steigender Auflösung immer Hardware intensiver und auffälliger in Form von Bildfehlern.
 
Laphonso schrieb:
Das ist nicht der Punkt, Rockstar. Wir kennen Intels und Nvidias Marketinglügen und Arschloch Moves zu Lasten der Konsumenten.
Neu ist, das “ausgerechnet“ AMD das nun nachmacht und einige hier in mentaler Gymnastik so tun als wäre das nicht so.
Der Frust des AMD reddits, die größte Bastion der AMD Whiteknights, war noch nie so groß. Das ist kein Zufall. AMD bekommt im GPU Sektor gerade gar nichts mehr hin außer uralt Raster, VRAM plus und „besseren“ Preis. Und blockiert nun den DLSS Vergleich im Showcase Titel. Feige, fail und peinlich ist das.

Und ja, gerne können wir über Nvidias „umfassenden„ DLSS 3.5 Spielekatalog von …. oh wow, ganzen 2 Games lästern. Oder die kackdreiste Preispolitik der RTX4000 oder die 4060 Gurke.

Das sind alles nur jeweils unterschiedliche Themen, und es gibt keinen Anlass, AMD hier zu verschonen oder zu verteidigen. Warum sollte man das tun?
Und bei BG3 kommt FSR2 auch erst später. Zum Release war nur FSR1 dabei.

Aber da mault keiner rum, dass das ne Sauerei wäre. Hauptsache DLSS ist dabei, gell.

Und BG3 ist schon ewig in der Entwicklung. Man hätte also genug Zeit gehabt, FSR2 reinzupacken.
Ist das nun auch feige?

Cunhell
 
  • Gefällt mir
Reaktionen: daknoll
yamiimax schrieb:
Du siehst doch den Verbrauch der ist niedriger als die 6950 xt?
Ignorierst du bewusst schon seit 3 Posts den Punkt, dass der genaue Verbrauch beider Karten bei 2GHz gefragt ist?

Die GRE taktet schon nur auf 2150MHz bei denen sie ihre ~250W verbraucht, die 6950XT verbraucht ihre ~340W bei ~2400MHz.
Gut möglich, dass die 6950 auf 2GHz nur noch wenig mehr verbraucht als die 7900GRE mit 2GHz,
aber das wissen wir erst, wenn es getestet wurde.

Apropos:
Wie du siehst die Karte ist schon echt der Wahnsinn! Echt sparsam!
Meine 4090 ist bei den gleichen 250W zwar immer noch ~60% schneller bzw bräuchte umgekehrt für die Leistung der 7900GRE maximal 150W, aber ja, echt der Wahnsinn, wie effizient diese GRE im Vergleich mit 3 noch ineffizienteren Karten aussieht!!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs, Pro_Bro, EmilEsel und eine weitere Person
@Alexander2

Ich hab nie etwas anderes behauptet.
Ich hab nur gesagt das ein rein rasterized rendering bei RT an seine Grenzen stößt und ich glaube das sollte ja mittlerweile jedem klar geworden sein.

DLSS und FSR wurden ja nicht aus Spaß an der Freude entwickelt sondern weil man Leistung halt nicht unendlich skallieren kann. Außer ihr habt alle Bock auf GPUs die 2kw die Stunde durch die Leitung ziehen 🙃
 
Danke für den Test! Ein Vergleich der Leistungsaufnahme wäre sehr interessant. Ist ja bei AMD schwieriger zu messen als bei Nvidia(?!).
 
mannefix schrieb:
Ist ja bei AMD schwieriger zu messen als bei Nvidia(?!).
Warum sollte es das sein? Ob du dein Messequipment an die Nvidia oder die AMD Karte hängst, ist dem Messsystem doch egal^^
Was du vmtl meinst ist die Sensoren in der Software abzulesen, was aber nix mit messen zu tun hat(und ja, das wäre tatsächlich schwierig, weil erst RDNA3 hier den kompletten Verbrauch ausgibt).
 
cunhell schrieb:
Und bei BG3 kommt FSR2 auch erst später. Zum Release war nur FSR1 dabei.

Aber da mault keiner rum, dass das ne Sauerei wäre. Hauptsache DLSS ist dabei, gell.
Bei BG3 fehlt aber z.B. auch DLSS 3
Es ist auch "nur" DLSS 2 dabei.
Beschwert sich auch keiner drüber oder ?

FSR2 kommt anscheinend mit dem Release auf der Playstation 5 am 6.9
 
Ich verstehe nicht genau was du ausdrücken willst. Derzeit Rendert doch jedes Raytracing nutzende Spiel erst die Welt mit Rasteleistung um dann on top Licht/Schatten/reflektionen, je nach implementierung on top zu berechnen. das arbeitet hand in hand.

da stößt doch nicht rasterized leistung an grenzen, sobald du raytracing aktivierst reduzierst du egal mit welcher karte stark deine fps um die Effekte zu bekommen, also die Rasterleistung ggf dümpelt dann so vor sich hin,. eben mit dem Tempo, wo das Raytracing hinterherkommt.
Oder willst du was ganz anderes ausdrücken?

Soweit ich weiß gibt es noch kein SPiel, das ausschließlich mit raytracing liefe. Per rasterisierung ist es zudem bis jetzt immer schneller.
Verstehe mich nicht Falsch, ich möchte auch gerne das Raytracing gute Verbreitung findet und gut bezahlbare Karten das alles stemmen können, nicht so wie jetzt.
Ergänzung ()

Atnam schrieb:
DLSS und FSR wurden ja nicht aus Spaß an der Freude entwickelt sondern weil man Leistung halt nicht unendlich skallieren kann. Außer ihr habt alle Bock auf GPUs die 2kw die Stunde durch die Leitung ziehen 🙃
Also das ist nur aufgekommen weil raytracing so lahm ist, bzw im vergleich man erheblichst aufwändigere karten mit raytracing bei gleicher auflösung und fps braucht.

im grunde alles nur aufhübsch tricks um die rechenlast zu verringern. Klar, das verringert bei rasterisierung ebenso die rechenlast.
 
Zurück
Oben