Test Radeon RX 7900 GRE im Test: Die OEM-Grafikkarte als Ersatz für die RX 6950 XT

Taxxor schrieb:
Es ist halt Quatsch von deutlich besserer Effizienz zu reden und als Vergleich die ineffizienteste Karte der Vorgängergeneration zu nehmen, die auch nur raus kam weil man unbedingt noch mal 5% drauflegen wollte und den Takt hoch geprügelt hat.
War schon bei der 7600 das Selbe. 35% effizienter als der Vorgänger, ja moin. Hätte man die 6600XT anstatt der 6650XT als Vergleich genommen (laut CB test 148 vs 176W für 3% Leistung) wäre die 7600 noch 10% effizienter als der Vorgänger gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: W4RO_DE, HaRdWar§FreSseR und Taxxor
Ben_computer_Ba schrieb:
Die 7900 kann nicht einmal eine 3080 ti schlagen, echt jetzt? Die 6900xt war der Gegenspieler zur 3090, die 7900 kann nicht einmal das? Wtf
Stock 3080Ti und Stock 3090 sind nahezu gleich schnell. Die 6900xt war dazu auch nur anfangs ein Gegenspieler, hat aber in den letzten 3 Jahren Federn gelassen und etwa 10% Performance verloren, so dass man mit der 6900XT ohne RT schon länger nur noch etwa auf 3080 Niveau liegt, da ist es jetzt nicht verwunderlich dass auch die 7900 mit der Performance der 6950XT da drunter liegt.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Verak Drezzt schrieb:
ja wie gesagt wollen wir mal von Ampere und der 3090Ti sowie der 3080Ti reden ?
Nein, wollen wir nicht, denn erneut: was hat Nvidia bei dem Thema zu suchen?

Es geht darum dass du gefragt hast was so schlecht am Verbrauch der Karte wäre und als Vergleich hast du halt das negativste Beispiel genommen was es bei RDNA2 gab.

Fakt ist, ähnliche Leistung bei lediglich 45-50W mehr Verbrauch (bleibt abzuwarten wie das ganze UV vs UV aussieht) gibt es im eigenen Hause schon seit fast 3 Jahren, insofern ist der Verbrauch der GRE im Vergleich nichts was man wirklich
positiv hervorheben könnte.
 
  • Gefällt mir
Reaktionen: W4RO_DE, JJJT und bad_sign
Verak Drezzt schrieb:
und auch wenn die Namensgebung seitens AMD totaler Schwachsinn ist
würde mich nicht wundern, wenn AMD den OEM Herstellern mit dem Namen was gutes tun will.
In der extra groß geschriebenen Beschreibungen zu den OEM Rechnern steht dann drin "mit einer 7900 Grafikkarte, der extra schnellen und neuesten GPU aus der RDNA3 Generation", da die typische OEM Gamingrechner Käuferschaft sowas lesen will und weiß, dass große Zahlen gut sind und die 900 nicht viel Platz nach oben lässt... und dann irgendwo sehr weit unten in extra kleiner Schrift "7900 GRE"
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und Pro_Bro
Taxxor schrieb:
Es geht darum dass du gefragt hast was so schlecht am Verbrauch der Karte wäre und als Vergleich hast du halt das negativste Beispiel genommen was es bei RDNA2 gab.
was soll ich sonst vergleichen wie die Leistung der Generation zuvor und da hat nun mal, genauso wie Nvidia, das letzte aus den Karten gedrückt und wenn die 7900GRE die Leistung der 6950XT bietet und damit knapp 100W weniger verbraucht, dann ist das halt Fakt

und selbst gegenüber der 6900XT sind es dann immer noch über 50W, keine Ahnung was du von mir willst
 
  • Gefällt mir
Reaktionen: Shadow86, MiroPoch und Enyo79
...kommt es mir nur so vor oder wird der abstand zwischen RTX3080 und RTX4070 immer kleiner ?
:)

Rastarizer WQHD (Perzentil-FPS, new Test)

Screenshot 2023-08-11 at 17-20-23 Die AMD Radeon RX 7900 GRE im Test Taktraten sowie Benchmark...png


Jup, die neue Arch aka RTX4070 kommt langsam in Fahrt und dürfte die RTX3080 bald überholen um ca. 1-2 % :hammer_alt::D

Ja, ja Messtoleranz und so, ruhe da.:evillol:

Rastarizer WQHD (Perzentil-FPS , old Test)

Screenshot 2023-08-11 at 17-29-18 Nvidia GeForce RTX 4070 FE im Test Taktraten sowie Benchmark...png
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
was soll ich sonst vergleichen wie die Leistung der Generation zuvor und da hat nunmla genauso wie Nvidia das letzte aus den Karten gedrückt
Eben dies, du nimmst eine Karte der Vorgängergeneration, die bis an die Kotzgrenze ausgequetscht wurde und vergleichst sie mit einer Karte, die das nicht wurde, obwohl es in der selben alten Generation eine Karte gibt die fast genau so schnell und deutlich effizienter ist.

Natürlich kommt da ein größerer Effizienzvorteil bei rum, als wenn du sie mit einer konservativeren Karte der Vorgängergeneration vergleichen würdest, so konservativ wie die GRE selbst eben auch ist.
Verak Drezzt schrieb:
und selbst gegenüber der 6900XT sind es dann immer noch über 50W, keine Ahnung was du von mir willst
Es sind knappe 50W und das ist eben sehr schwach für so einen Generationssprung nach 2 Jahren und 9 Monaten.
Du warst derjenige der gefragt hat, was das Problem mit dem Verbrauch ist.

Genau das ist das Problem, er ist zu hoch. Und das kaschieren zu wollen indem man sich eine überzüchtete Karte als Vergleich nimmt und sagt „guck mal wie viel die hier verbraucht“ um eine große Effizienzsteigerung zu suggerieren, ist einfach unehrlich.

Es bleibt ein effizientvorteil von ~20% und wenn UV ins Spiel kommt werden es recht sicher noch weniger als 20% sein, da sich die 6900er gut undervolten lassen währen die 7900er stark auf den Takt angewiesen sind(sieht man am großen Abstand der GRE zur XT).


Dazu kommt noch, dass sie sich ja eigentlich weder dem Vergleich mit RDNA2 noch mit Ampere, sondern mit Ada stellen muss
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: W4RO_DE, bad_sign, Pro_Bro und eine weitere Person
Abgesehen von weniger Energieverbraucht macht RDNA3 halt leider nichts besser als RDNA2
Schon traurig.

Warte noch auf eine 6950XT für 499€ inklusive Starfield Deluxe Edition.
Dann schlage ich zu
 
  • Gefällt mir
Reaktionen: Vitec
Taxxor schrieb:
Genau das ist das Problem, er ist zu hoch. Und das kaschieren zu wollen indem man sich eine überzüchtete Karte als Vergleich nimmt um eine große Effizienzsteigerung zu suggerieren, ist einfach unehrlich.
und bei der 4070Ti gegenüber der 3080Ti passt das wieder mit 70W ? schon hart lächerlich, davon ab das #AMD bis dato nie so der große Effzienz Guru mit seinen GPU's war, finde ich das gegenüber der 6950XT und auch der 6900XT schon beachtlich

kannst du aber ehrlich gesagt sehen und machen wie du lusdich bist, selbst wenn die Karte noch 280W gefressen hätte, hätte ich kein Problem damit gehabt, einfach nur lächerliche Grabenkämpfe mit dir und deinesgleichen hier jedes mal
 
  • Gefällt mir
Reaktionen: Shadow86 und MiroPoch
Taxxor schrieb:
Verglichen mit der 6950XT wäre sie ca 33% effizienter, verglichen mit der 6900XT sind es schon nur noch 20%.
Ich finde schon, dass Du insoweit recht hast, als dass die RDNA 3-Generation in gewisser Weise bei der Effizienz im Vergleich zu NV enttäuscht, teils auf sehr dumme Art und Weise (4k 144Hz. Bug).
Dennoch ist die Karte entweder schneller als die Karten der Vorgängergeneration mit gleichem Verbrauch oder bei der gleichen Leistung der fast gleich aufgebauten 6950 eben deutlich sparsamer. Für ein "Abfallprodukt" mit den schlechtesten Yields ist das "okay" und besser als alle Amperes.

AMD ist eben auf den preiswerteren Ansatz bei der Produktion gegangen. Der von NV ist teurer (da wird dann auch gemeckert), aber eben auch effizienter und in der Praxis bei gleicher Rechenleistung schneller. Da hat man sich bei AMD ein bisschen verzockt und ist sicher von den RDNA3-Problemen selbst sehr negativ überrascht.

Absolut gesehen versoffen und wirklich schlecht sind diese 6/5nm-Klebechips aber auch nicht und vielleicht kommt AMD ja noch einmal zur Vernunft und preist sie so angemessen ein, dass der Eine oder Andere sich dafür entscheidet. Eine 7800xt mit einer Leistung zwischen 6800xt und 6900xt für 550€ bei 240W wäre so eine Karte.
Glaube ich daran? Noch nicht, aber dahin wird es gehen müssen, sonst verstaubt auch dieser Versuch im Regal.
 
  • Gefällt mir
Reaktionen: DF86, danyundsahne, zazie und eine weitere Person
Taxxor schrieb:
Ich bin aber bei dir, dass der Vergleich schwierig ist, wenn man je nach GPU FSR, DLSS oder xeSS nutzt, weil man dann nicht die gleiche Bildqualität hat.
Das sehe ich ehrlich gesagt auch als schwierig an bei offiziellen 4k Tests die mit upscaling gebencht werden..
Bzw generell Benches mit Upscaling.

FSR kann im allerbesten fall so gerade mit DLSS in einer Handvoll Titeln in 4k gleichziehen..
Die Realität ist aber das FSR-Quality in etwa DLSS-balanced entspricht

Je geringer die Ziel Auflösung desto schlimmer wird es.

Man hat zwar in etwa den gleichen FPS Gewinn mit FSR und DLSS wenn man das Quality Preset nimmt.. aber nicht mehr die gleiche Bildqualität.

Oder würde man bei ähnlicher Bildqualität benches hiese es FSR-Q vs DLSS-B .. was unweigerlich mehr FPS für Nvidia karten bedeuted.

Was die Karte angeht.. tjoar erwartet..
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, H6-Mobs und Ben_computer_Ba
Verak Drezzt schrieb:
und bei der 4070Ti gegenüber der 3080Ti passt das wieder mit 70W ? schon hart lächerlich,
Wo hab ich denn so einen Vergleich angestellt und gesagt dass da irgendwas passt? Den Strohmann kannst du gerne stecken lassen.

Die 4070Ti ist, was Effizienz angeht, halt auch kein hervorstechendes Produkt.
Sie ist im Gegenteil die bisher ineffizienteste Ada Karte, analog zur 6950XT bei RDNA2. Sie ist damit immerhin noch 35% effizienter als die effizienteste Ampere GPU(3070, was aber ggü Ampere allgemein keine große Leistung ist), aber gleichzeitig auch nur so effizient wie die effizienteste RDNA2 GPU(6800).

Hier wäre man aber leider, wenn man zukünftig die 5000er mit den 4000ern bei gleicher Performance vergleichen will, gezwungen sie für den Vergleich zu nehmen, weil es im Gegensatz zur 6950XT kein effizienteres Ada Modell gibt das gleichzeitig ähnlich schnell ist.

Verak Drezzt schrieb:
davon ab das #AMD bis dato nie so der große Effzienz Guru mit seinen GPU's war, finde ich das gegenüber der 6950XT und auch der 6900XT schon beachtlich
RDNA2 war eine ziemlich effiziente Generation, wenn man die hochgezüchteten refresh Karten rauslässt.
Beachtlich sind 20% weniger Verbrauch bei gleicher Performance für mich nicht, nicht im Vergleich mit RDNA2 und erst recht nicht im Vergleich mit Ada.
Verak Drezzt schrieb:
selbst wenn die Karte noch 280W gefressen hätte, hätte ich kein Problem damit gehabt, einfach nur lächerliche Grabenkämpfe mit dir und deinesgleichen hier jedes mal
Gut, wenn du gleiche Performance für 15-20W weniger nach über 2,5 Jahren okay fändest, weis ich halt auch nicht mehr was ich sagen soll ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chaopanda und bad_sign
bensen schrieb:
Haben wir unterschiedliche Tests gelesen? Ich finde hier durchaus Benchmarks in 1440p. Was also genau ist das Problem?
Ansonsten entscheidet natürlich der Tester was sinnvoll getestet wird und nicht der Hersteller. ...
Und 4k testen macht hier definitiv Sinn. Die Performance ist da und wenn der Cache irgendwo knapp wird ist es doch gut das zu zeigen.
Im 4060-Einzelreview !?
Da gabs aus gutem Grund nur 1080p.

prinzipiell:
Seit wann entscheidet denn der Fahrer das 6 Mann im 5-Sitzer mitfahren dürfen?
dann brauchen die Hersteller auch keine Empfehlung mehr geben
Gute Fahrt auf eigene Gefahr/Dummheit ohne Versicherung!
 
Performancerating (Rasterizer - WQHD)

Screenshot 2023-08-11 at 17-47-23 Nvidia GeForce RTX 4070 FE im Test Taktraten sowie Benchmark...png


+

Performance pro Watt (Rasterizer - WQHD)

Screenshot 2023-08-11 at 17-42-42 Nvidia GeForce RTX 4070 FE im Test Lautstärke Temperatur Lei...png


+ Raytracing, DLSS, Stromverbrauch usw.

=

Screenshot 2023-08-11 at 17-51-46 News - Prozessor-Verkäufe Der PC-Markt schrumpft und wächst ...png


Nicht verwunderlich, womit will AMD punkten ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Caramelito schrieb:
ja klar, nur fühlt es sich wahrscheinlich besser an ein RX 7900 Produkt zu kaufen anstatt 7800 oder Gott behüte 7700 :D

OEM Rechner sind die perfekte Kundenabzocke.
Ich denke RDNA3 ist nicht schnell genug, als das sich die kleinen Karten noch groß vom Vorgänger abheben würden Unter der 7800XT sollen ja schließlich noch ein paar Karten folgen, also macht man geschwind aus der eigentlich 7800XT die 7900XT und aus der eigentlich 7800 eine 7800GRE.

(Ich selber hab ne 6800XT.)
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
DerRico schrieb:
AMD ist eben auf den preiswerteren Ansatz bei der Produktion gegangen. Der von NV ist teurer (da wird dann auch gemeckert)
Und genau das ist ja eben nicht so, da RDNA3 alle Ziele verfehlt hat. N31 ist günstiger zu fertigen als AD102 (die 4090). Aber schon gegen AD103 sollt man mit Packaging und allem drum und dran deutlich teurer enden. Am Ende hat AMD also wirklich gar nichts von den Chiplets. Die Marge auf RDNA3 dürfte ziemlich gering sein, zumindest im Vergleich zur Konkurrenz und dem, was AMD sich eigentlich gewünscht hat.
 
Wers net gerade an den Ohren hat, ist mit der GRE gar net sooo schlecht dran.
(ne 6950 müsste man erstmal aufwändig zurechtbiegen, ... UCen+UVen mit MPT)

7900GRE_dB.JPG
 
Es gibt wirklich unheimlich viele Baustellen bei AMD.
Das auch dieses immense Problem nicht behoben wurde, wirklich schwach um es mal vorsichtig auszudrücken.:(

Screenshot 2023-08-11 at 18-04-56 Die AMD Radeon RX 7900 GRE im Test Lautstärke Temperatur Lei...png


Screenshot 2023-08-11 at 18-05-25 Die AMD Radeon RX 7900 GRE im Test Lautstärke Temperatur Lei...png



Die GRE stellt wieder einen neuen Negativrekord auf.

Kurz und bündig: AMD ist praktisch in allen Diszplinen unterlegen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
So lang der Preis nicht besser ist sehe ich eher nicht den Sinn in dieser Karte. Die gekürzte Bandbreite wird sich halt doch hier und da bemerkbar machen.
Leider ist das wie so oft Stagnation auf hohem Niveau.

Die 6950 XT war ja nun schon öfter mal unter 600 Euro im Angebot.
 
Zurück
Oben