Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

DerRico schrieb:
Das ist aber alles sehr pseudorichtig.

Alles was wir wissen können - ohne tiefere Einsicht in die internen Dokumente - ist das, was TSMC veröffentlicht.
Das ist es ja, TSMC veröffentlicht Daten zu ihrem N4.
4N ist eine Bezeichnung von Nvidia für den für sie optimierten N5 Prozess also Nur Marketing.

AMD nutzt genauso einen logischerweise für GPUs optimierten N5 einfach ohne fancy Namen.

Daher kannst also sicher nix ableiten.
Davon ab dass AMD bei ähnlichem Takt sogar viel dichter packt bei ähnlichem Prozess.
 
Tja, für den ersten Eindruck gibt es keine zweite Chance. Dumm und fahrlässig, dass man das immer wieder versaubeutelt.
 
Vermutlich wurde schon danach gefragt und geantwortet, möchte aber ungern alles druchlesen: Wieso verbraucht die XTX 158W mit 144Hz Limiter, " Die Radeon RX 7900 XT kommt derweil auf 169 statt 226 Watt."? Oder lese ich was falsch oder ist es ein Schreibfehler?
 
Wolfgang schrieb:
Aktuell hab ich im Büro nur Full HD 360 Hz, WQHD 144 Hz oder 4K60 zur Auswahl. Aber ein 4K144-Monitor ist auf dem Weg, da gibt es bald entsprechend mehr Messungen :)
recht herzlichen dank
Ergänzung ()

Phobsen schrieb:
Wovon wir als Kunden vielleicht profitieren könnten.
Technisch sind die Karten ja ohne Zweifel sehr lecker.
Durch diesen Fauxpas seitens AMD könnte durchaus Bewegung in die Preisgestaltung kommen.
Dann könnten wir als Konsument doch günstiger als anfangs gedachtan ordentliche Hardware kommen, auch wenn AMD das nicht gefällt.
Aber wie hat mein Opa schon gesagt ? Wer "A" sagt muss auch "Schloch" sagen.
Niemand hat AMD gezwungen so einen überhasteten Release zu fabrizieren.
Auch hoffe ich, das daraus Lehren gezogen wurden.
bisschen OT aber ich muss sagen ich würde gerne mal wissen wer oder was passiert ist das die marketing abteilung so sagen wir "stümpferhaft" arbeitet die letzen monate (den da sind nun einige events dabei gewesen die DEUTLICH nicht gut gelaufen sind) vorallem das lisa da nicht schon aufgeräumt hat wundert mich den immerhin gilt sie als gesicht der marke (mal von 1-2 twitter accounts abgesehen)
kann nur offen da kommt "auch" wieder bewegung in die mitarbeiter gruppe
 
@janer77 du liest richtig. Die Xtx ist nunmal stärker (hat 12 Recheneinheiten mehr) als die XT und braucht nunmal etwas weniger Takt um 144fps zu erreichen als die XT. Das ist normal.
 
  • Gefällt mir
Reaktionen: daknoll und janer77
Es gibt nun auch erste Tests von Usern und Content Creatoren das der 23.1.1 auch wenn es nicht in den Releasenotes steht den Idle Verbrauch und Verbrauch beim Videos schauen auf YT und Co weiter gesenkt hat.
 

Anhänge

  • IMG_20230113_191006.jpg
    IMG_20230113_191006.jpg
    27,2 KB · Aufrufe: 167
  • IMG_20230113_190930.jpg
    IMG_20230113_190930.jpg
    32,6 KB · Aufrufe: 164
  • Gefällt mir
Reaktionen: Volvo480
Dummsday schrieb:
Einer, der mind. 10-20% bessere Performance/Watt erreicht als der aktuelle.
Beide verwenden auf für sich angepasste Prozesse AMD bezeichnet das mit "5 nm" und Nvidia mit "4N".
Das Problem ist wir wissen nicht wie sehr sich die Prozesse von AMD und Nvidia tatsächlich unterscheiden.

Was auffällt ist dass AMD offensichtlich mit Phoenix Pont einen anderen Prozess als mit Raphael oder Navi 31 benutzt. Bei 7 nm hat AMD sie lange an den ursprünglichenbeibehalten bis sie mit Navi 24 uind Rembrandt auf einen anderen gewechselt sind.

Dummsday schrieb:
Das Konzept mit den Tiles mag ja am Ende kosteneffizienter sein, aber ich hab mal irgendwo gelesen dass das Tiling bei Grafikchips durch die zusätzlichen Schnittstellen und den riesigen Datenmengen, die darüber gehen locker 10% Energieeffizienz kostet.
Es kommt immer darauf an auf was man die 10 % bezieht. Und das Problem ist, dass da einige (Publikationen) viel schreiben ohne wirklich Ahnung zu haben.

AMD sagt die Infinity Fanout links verbrauchen weniger als 5 % des GPU Verbrauchs
Die Leitungen On-Chip benötigen ebenfalls Energie.

pasted_image007.png


Was man aber bei dem ganzen Gerede nicht aus den Augen verlieren darf ist, dass AMD die Bandbreite zum L3-Cache im Vergleich zu RDNA 2 deutlich erhöht hat. Das war möglich obwohl der Cache auf einem anderen Die sitzt.

Die Bandbreite-Messungen von Chips&Cheese zeigen im Vergleich zu RDNA 3 eine deutliche Erhöhung der Bandbreite zum L3-Cache. Also denke ich nicht, dass bei den Performance-Problemen die Chiplets eine Rolle spielen.
Sunjy Kamikaze schrieb:
Schon mal dran gedacht das es am Monitor lag und nicht an der GPU? Mein Freesync Premium Monitor läuft auch direkt ohne Probleme.
Wenn es in einem System mit AMD-Komponeten Probleme gibt, kann es nur an den AMD-Komponenten liegen, :).
modena.ch schrieb:
Das ist es ja, TSMC veröffentlicht Daten zu ihrem N4.
4N ist eine Bezeichnung von Nvidia für den für sie optimierten N5 Prozess also Nur Marketing.
Aber hervorragendes Marketing.
Das ist mir auch erst aufgefallen als jemand bei Twitter darauf aufmerksam gemacht hat.
 
Northstar2710 schrieb:
@PTS
Das einzige was für dein Monitor erwähnt wird ist gsync-compatible aber nicht ein einziges Mal AMD oder freesync ?
https://www.lg.com/de/monitore/lg-34gn850-b

Ok, bei geizhals wird freesync erwähnt. Aber welche AMD Zertifizierung meinst du?

Diese hier:
Adaptive Sync, AMD FreeSync Premium (48-144Hz via DisplayPort, 48-85Hz via HDMI, mit LFC-Support, mit HDR)

Für Nvidia steht nur G-Sync-Kompatibel und dennoch funktioniert es besser mit NVIDIA Karten, obwohl es eigentlich mit AMD Karten ja besser laufen sollte....
 
Immerhin wird weiter dran gearbeitet.
AMD kann jede Schützenhilfe gut gebrauchen im Moment.
 
Bitte einen 175Hz Monitor mit 3440*1440 testen im Idle und Videoplayback Modus.

Da säuft meine 7900XTX bisher 120 Watt im Idle.
 
PTS schrieb:
Als ob ich hier einfach so was negatives schreiben würde,
Nichts für ungut wärst halt nicht der Erste der sowas macht.
PTS schrieb:
da muss doch die Erfahrung mitspielen und ich hatte 3 Verschiedene Custom Karten hier.....
Es sind ja im Endeffekt alles gleiche Karten, wenn dann liegt es am Treiber, oder der Monitor hat ein Problem damit aus welchen Gründen auch immer es muss nicht nur an den Karten liegen.

PTS schrieb:
Bei Gott bin ich kein AMD Hater...
Ergänzung ()
Hab ich auch nicht behauptet.
 
Zuletzt bearbeitet:
RyzaTune schrieb:
Sehr gut das der Idle Vebrauch vom absurden runter ist, wobei für mich (und viele andere) 120Hz Ergebnisse interessanter gewesen wären. Kenne kaum einen der 4k @ 60 nutzt, schon gar keinen Gamer.
Doch, ich nutze einen 4k60Hz Monitor. Und ich zocke sogar damit. Kaum zu glauben, aber 60Hz funktioniert auch mit hoher Auflösung ganz gut ;)
RyzaTune schrieb:
Ansonsten(beim Gaming) ist leider die Effizienz enttäuschend, die XTX ist etwa auf dem Verbrauchsniveau einer 4090, das steht halz zu keinem Verhältnis.
Naja, so schlecht ist die Effizienz auch wieder nicht wie viele meinen. RDNA3 steht nun oberhalb von RDNA2, und deren Effizienz war echt gut. Sieht man ja auch im Chart.
Mit FPS Limit auf dem 2ten Platz und kratzt an Ada, was ist daran enttäuschend?

Ja Ada ist etwas besser, daher 2. Platz für AMD.
Aber schlecht oder enttäuschend ist es mittlerweile nicht mehr wie ich finde.
Man ist auf gutem Niveau.
 
  • Gefällt mir
Reaktionen: PegasusHunter
PTS schrieb:
Diese hier:


Für Nvidia steht nur G-Sync-Kompatibel und dennoch funktioniert es besser mit NVIDIA Karten, obwohl es eigentlich mit AMD Karten ja besser laufen sollte....

Sehr sicher nicht! Hatte den Vergleich hier und während die RTX immer mal kurz zum "Ruckeln" beginnen wollte, war es auf der XTX super smooth. Ausgabegerät ist ein LG Oled-TV mit 120Hz angeschlossen an HDMI 2.1.
 
Lilz schrieb:
Der erste Eindruck reicht vielen ja um die Generation abzustempeln und zum grünen Lager zu greifen.
So sieht es aus. Wir werden das noch in 50 Jahren lesen. Wie wir ja seit 25 Jahren was von schlechten Treibern lesen. Inb4: ein zu früher HW Release oder ein zu kleines Team macht noch keine schlechten Treiber.
 
PTS schrieb:
Soll ich dir die Bestellungen screenhoten? Was denkst du denn woher meine negative Meinung zu den AMD-Karten kommt? Als ob ich hier einfach so was negatives schreiben würde, da muss doch die Erfahrung mitspielen und ich hatte 3 Verschiedene Custom Karten hier, alle hatten die gleichen Probleme, konnten nicht mal Freesync an nem AMD Freesync Premium-Monitor flickerfrei wiedergeben aber mit NVIDIA Karten funktionierts per Gsync ohne Probleme, schon komisch ne? Obwohl der Monitor für AMD Karten ausgelegt ist..........

Du hast bereits festgestellt, dass ein Testen mit 3 verschiedene AMD Karten zum gleichen Ergebnis führt. Spätestens dann müsste man doch annehmen, dass der Monitor einen Teildefekt hat, denn er funktioniert nicht einwandfrei. D. h. der nächste logische Schritt ist, den Monitor wegen Garantie einzuschicken...
 
  • Gefällt mir
Reaktionen: McTheRipper, drago-museweni und PegasusHunter
@gedi Er bezieht das auf die Erfahrung mit seinen Monitor , obwohl dieser freesync Premium können soll laut geizhals, hat das bei seinen custom AMD Karten nicht funktioniert. Aber gsync-compatibel funktioniert mit seiner jetzigen Nvidia Karte .

Ich glaube der Monitor hat ein Problem.
 
  • Gefällt mir
Reaktionen: McTheRipper und PegasusHunter
Ist zwar noch nicht super, aber das ist doch schon mal ein guter Fortschritt.
Meine alte GTX 950 brauchte im Windows auch so ca 20W. Also davon ist die RX 7900XT nicht weint entfernt.
Ich denke AMD wollte die Karten unbedingt noch vor Weihnachten raus bringen aber die Treiber waren noch nicht optimal.
Ich hoffe da kommen noch gute kleine RDNA3 Karten. Sowas wie eine RX 7400 für 100€, die man schön in einem Mini ITX verbauen könnte. Mit 30-40W Verbrauch. Die RX 6400 ist ja an sich schon nicht schlecht aber die Einschnitte sind übel. Nur 4 PCI Lanes und keine Encoder usw.
 
Northstar2710 schrieb:
@gedi Er bezieht das auf die Erfahrung mit seinen Monitor , obwohl dieser freesync Premium können soll laut geizhals, hat das bei seinen custom AMD Karten nicht funktioniert. Aber gsync-compatibel funktioniert mit seiner jetzigen Nvidia Karte .

Ich glaube der Monitor hat ein Problem.

Wenn es so sein sollte, bleiben trotzdem noch die anderen ganzen Treiber-Bugs bei AMD übrig, so viel wie ich da an bugs festgestellt habe, glaube ich kaum das es am monitor direkt liegt .. ich traue der schlampigen programmierung von amd einfach nicht mehr, evtl. probiere ich es in paar jahren nochmal aber 2x habe ich karten verschiedener serien von amd gekauft, 2x wurde ich enttäuscht mit etlichen fehlern (HD 6950 & die 6900XTs)

Kann ja kein Zufall sein, komisch das ich bei nvidia noch nie solche gravierenden Probleme hatte und da rede ich ja nicht nur vom freesync-problem, selbst ohne freesync lief ja nativ nicht alles rund wegen den treibern.

Wenn schon ein Hauseigener Benchmark nicht mal ordentlich läuft ist das halt ne zumutung und das hatten ALLE amd user, habe mich zu der zeit mit vielen leuten unterhalten, jeder hatte die gleichen probleme. es gab sogar leute die haben den amd treiber komplett gelöscht und ohne grakatreiber das system laufen lassen(also nur den treiber über windows installierne lassen, ohne das catalyst center) weil es dann besser lief aber das war für mich keine möglichkeit weil ich eben bestimmte treiber funktionen benutzen möchte.
 
Jan schrieb:
Edit: @Wolfgang weiste mich darauf hin, dass es doch "nur" um die 700 Euro sind. ^^
Und dann hast nur einen gekauft? ;)

Und danke @Wolfgang für deine unermüdliche Testerei und die gute schriftliche Aufbereitung.

PS: ich habe munkeln hören, Chef kauft gerade neue HW, damit dir bloß nicht zu langweilig wird :D
 
Zurück
Oben