Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell

Sappen schrieb:
Ich möchte die AMD Karten jetzt auch nicht nur schlecht reden
Ja, Nvidia hat wieder das beste Gesamtpaket und etabliert dafür auch die Tier 3 Klasse bei 900 Euro.
NEUNHUNDERT Euro lol.

Das ist der "Tausch" und der Preis....

Alles fail.

Nvidia und AMD liefen diese Generation beste Gründe, um alles zu skippen. Ich lauere nach wie vor im Bekanntenbreis der "non-Enthusiasten" auf 3070, 3070 Tis und 6800XTs .

Die langen für full HD und 1440p dicke.

Wer 4K spielen will oder "muss", ja, darf dann leider 1000 Euro oder mehr hinlatzen. Oder sitzt das ab jetzt einfach noch nochmal nicht ganz Jahre 2 btw. rund 21 Monate aus.
 
Laphonso schrieb:
Seit vielen Jahren nur am reagieren und durch den Ring geschubst werden,[...]
Naja, ganz so arg ist es aber auch nicht. 5700 XT war durchaus eine Karte, die man kaufen konnte. RDNA2 war im Bezug auf das Featureset unterlegen, aber sonst definitiv auf Augenhöhe mit Nvidia. Gerade auch im Low- bis Mid-End bot und bietet man nicht selten das bessere Gesamtpaket. Und beim Thema Reagieren sollte man auch bedenken, dass AMD zuerst mit dem Infinity Cache und jetzt mit dem Chiplet-Design durchaus auch agiert.
 
  • Gefällt mir
Reaktionen: Cruentatus, Rambo5018, fox40phil und 2 andere
Zer0Strat schrieb:
Oh ne, das mit dem Shader Prefetching war ne ganz andere Sache und widerlegt ist das nicht wirklich. AMD hat das behauptet, aber die haben auch behauptet, dass nur ein kleiner Prozentsatz der Referenzkarten von dem Vapor Chamber Fehler betroffen seien.
Das das hier diskutierte Thema einen anderen Hintergrund ist mir durchaus bewusst.
Hier in diesem Fall gehe ich tatsächlich von massiv fehlender Optimierungsarbeit aus um das volle Potenzial zu nutzen können. Einen tatsächlichen Architektur Designfehler sehe ich noch nicht. Maximal eine Architektonische Begrenzung der Leistung aber nicht durch einen Fehler sondern einfach weil die erste Chiplet GPU Generation einfach nicht mehr leisten kann im Vergleich zu Konkurrenz.

AMD hat es ja nicht nicht behauptet sondern nachgewiesen mit einem bestätigenden Eintrag in der Mesa Bibliothek.
https://gitlab.freedesktop.org/mesa...llium/drivers/radeonsi/si_state_draw.cpp#L586

Tatsächlich kann keiner 100% nachweisen/nachvollziehen das AMD hier untertreibt, diese Zahlen hat tatsächlich nur AMD.
 
  • Gefällt mir
Reaktionen: Grundgütiger und DevPandi
Pjack schrieb:
RDNA2 war im Bezug auf das Featureset unterlegen, aber sonst definitiv auf Augenhöhe mit Nvidia.
Deswegen ist RNDA3 umso enttäuschender. AMD war dran, minus der üblichen DLSS und Raytracing Unterschiede, die jeder für sich bewerten muss.

ABer RNDA3 verliert ja an allen Fronten diesmal, sogar Effizienz und Raster. Die 4090 ist für AMD eine gefühlte 5090. So unfassbar weit weg, in absolut allen Bereichen.

Und dann liefert AMD auch noch ein eigenes "Hitzeproblem". Können wir nur hoffen, dass RDNA 3 hier eine Delle darstellt..

Und vielleicht das Midrange Segment besser und fairer bedienen wird als Nvidia, hier liegt die wahre (oder die Ware, passt auch) Marketshare.
 
  • Gefällt mir
Reaktionen: Gönndir
Danke für den Test.
Bestätigt aber nur meine Meinung, untervolten ist das neue übertakten, die neuen Karten saufen einfach zu viel, sie laufen im Auslieferungszustand alle deutlich über dem optimalen Punkt, etwas mehr Leistung kostet noch viel mehr Watt.
 
  • Gefällt mir
Reaktionen: Haldi, fox40phil und DerRico
Taurus104 schrieb:
AMD hat es ja nicht nicht behauptet sondern nachgewiesen mit einem bestätigenden Eintrag in der Mesa Bibliothek.
Fängt Zer0Strat wieder mit dem Shader-Prefetch an? … Danke für den Link, na mal sehen ob es dann weiter behauptet wird.

Wir sind hier echt bei einer Sache, die ich schon mal anmerkte: Es wird immer viel behauptet, aber keiner liefert wirklich dann mal Beweise dafür und wenn man dagegen argumentiert, wird das immer mega kompliziert, weil man sich erst mal alles zusammensuchen muss.

Es macht Spaß auch einfach mal zu spekulieren, aber dann sollte man es auch als genau das behandeln: Spekulationen. Viele nehmen Gerüchte zu schnell als bare Münze.
 
  • Gefällt mir
Reaktionen: rumpeLson
Pjack schrieb:
Und beim Thema Reagieren sollte man auch bedenken, dass AMD zuerst mit dem Infinity Cache und jetzt mit dem Chiplet-Design durchaus auch agiert.
Und auch bitte nicht vergessen.
NV ist finanziell eine ganz andere Liga als AMD.
Zu dem hat NV auch noch viel mehr Man Power zur Verfügung.
AMD muss die weniger Leute auch noch zwischen CPU und GPU aufteilen.

Ich denke NV könnte mit den gleichen Mittel auch nicht mehr reißen.

NV macht gute Arbeit aber AMD mit ihren Mitteln eben auch.
Momentan sieht es halt leider nicht ganz so gut AUS. Aber von fail zu sprechen ist stark übertrieben.
 
TheUngrateful schrieb:
Dieses vermutlich "nicht gewünschte Verhalten" von RDNA3 wird sich dann wahrscheinlich durch die komplette Serie ziehen, oder?
Nicht unbedingt, dazu sollte man erst einmal die monolitischen RDNA3 Navi33 Grafikkarten abwarten.

Neben leicht weniger optimierter und günstigerer Fertigung bei den RDNA3 verglichen mit Ada Lovelace dGPUs, dürfte monolitisch vs. MCM-GPU Design in Erstgeneration beim Gaming auch eine Rolle Spiel (dazu dann noch spezifische Architekturunterschiede zwischen AMD/RTG und nVidia).
 
Der Verbrauch mit OC ist weder bei NV und schon garnicht bei AMD Alltagstauglich

Ist was für den Benchmark aber sonst eben Quatsch
 
dumme Frage an Wolfgang:
Im Treiber lässt sich der Takt der Grafikkarte um 300 MHz auf die Einstellung 3.304 MHz anheben. Zwar ist es möglich, noch höhere Werte einzustellen, doch kommt in Spielen davon absolut nichts an und selbst von den 300 MHz verpufft das meiste wieder. Aber dennoch: Anders als die Referenzkarte bringt es bei der Radeon RX 7900 XTX Nitro+ durchaus noch etwas, händisch am Takt zu drehen – wenn 500 Watt Power-Limit gesetzt worden sind.
Evtl. muss der Vram auch mit OCed werden., damit echter Fps-Gewinn spürbar ist.

Die OCer sind alle mit mooore Vram-Takt unterwegs.
(gilt vermutlich genauso für die 4080, damits sinnvoll skaliert)

btw.
Wie bereits in Post #91 gezeigt, ist der FrontEndClock >3,5Gig in COD möglich.
(der kleinere Shaderclock wird sich dann nur an der Auslastung orientieren, soviel wie erf.)
 

Anhänge

  • LtMatt@Nitro1.JPG
    LtMatt@Nitro1.JPG
    32,8 KB · Aufrufe: 164
  • 4080@TS.JPG
    4080@TS.JPG
    34,1 KB · Aufrufe: 166
Laphonso schrieb:
Oder sitzt das ab jetzt einfach noch nochmal nicht ganz Jahre 2 btw. rund 21 Monate aus.
Oder noch länger ;), was die Preisentwicklung angeht bin ich da deutlich weniger optmistisch als Du.

RX 6800(XT) reichen (übertaktet) auch zum Einsteiger-4K/UHD und verhungern absehbar lange Zeit nicht am Speicher.
Natürlich hängt es auch davon ab, wie grottig in Zukunft Spiele programmiert werden, aber dann helfen u.U. auch RTX 4090 Karten nicht mehr und die Frage ist, ob man solch mangelhaft optimierte Spiele per Kauf unterstützen möchte?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cyberbernd, fox40phil und Laphonso
oder
Wieviel Vram die Games so brauchen werden!

Forspoken will wohl 16GB@4k

Ultra

Resolution/Framerate: 4K 60 FPS
OS: Windows 10 or Windows 11
CPU: AMD Ryzen 7 5800X or Intel i7-12700
GPU: AMD Radeon RX 6800 XT or Nvidia GeForce RTX 4080 16GB
RAM: 32GB
Storage: 150GB NVMe SSD or more
 
dreh halt die Heizung runter

und
etwas UVen geht auch bei AMD

btw.
DE ist auch seeehr auf NV optimiert, ... may be in anderen Games ist der Verbrauchsunterschied net so krass.
 

Anhänge

  • Rainbow-Six-Extraction-AvWattFPS_DE-2160p-DX12-Max-Settings.png
    Rainbow-Six-Extraction-AvWattFPS_DE-2160p-DX12-Max-Settings.png
    48,1 KB · Aufrufe: 225
Laphonso schrieb:
Deswegen ist RNDA3 umso enttäuschender. AMD war dran, minus der üblichen DLSS und Raytracing Unterschiede, die jeder für sich bewerten muss.

ABer RNDA3 verliert ja an allen Fronten diesmal, sogar Effizienz und Raster.
Jetzt ist man halt bei der Fertigung gleich auf bei TSMC, das Zeug von Samsung konnte halt bei weitem nicht mithalten.

Man wird imho bei den monolithen bei AMD sehen wie gut sie wirklich gegenüber nvidia dastehen.
 
  • Gefällt mir
Reaktionen: Laphonso
Iconoclast schrieb:
Die AMD säuft aber auch wie ein Loch, unglaublich.
Woran machst du das fest? Hoffe doch nicht an den 500 Watt hier im "Test".

Man kann die 7900XTX gut UV. Also säuft wie ein Loch sehe ich da nicht. Nur eben mehr als die NV.

Dann würde ich die 4090 auch dazu zählen die verbraucht auch fast 400 Watt ohne Eingriff.
Natürlich ist sie schneller aber 400 Watt sind 400 Watt.
 
Taxxor schrieb:
Natürlich im Vergleich zur Konkurrenz, wäre ja noch schlimmer, wenn man sogar ineffizienter als der eigene Vorgänger wäre^^
Ich suche die 54% immer noch ^^ ~36% ist nice, aber ich frage mich ob die 14% dem GCD zum Opfer gefallen sind..

Wenn die 7900XT für ~750€ käme, das wäre echt fein.. vllt zum Sommer.
 
Rockstar85 schrieb:
~36% ist nice, aber ich frage mich ob die 14% dem GCD zum Opfer gefallen sind..
Und die ~36% sind schon best-case wenn man von der total ineffizienten 6950XT aus geht.

Man will die 54% ja gegen die 6900XT erreicht haben, allerdings eben mit der XTX auf 300W limitiert.
Auf 355W sind es im CB Test gerade mal mickrige +18% geworden.

Und selbst wenn man ihr 55W weniger erlaubt hätte, so wie es AMD getestet hat, könnten daraus hier niemals +54% werden, da sie ja selbst mit 355W nur 43% schneller als die 6900XT ist, bei 300W würden da vielleicht noch 30-35% übrig bleiben.

Diese +54% bei 300W gegen die 6900XT waren auch das, was mich bis zuletzt hat hoffen lassen. Denn das hätte bedeutet, dass man mit den normalen 355W auf jeden Fall 60-65% stärker als die 6900XT sein wird(und damit ~15% über der 4080 und ~15% unter der 4090 so wie gedacht^^).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Esenel, Haldi und eine weitere Person
Zurück
Oben