Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Melu76 schrieb:
und ich habe das mal mit AMD'lern "ausdiskutiert" und die meinten das die formel für den korrekten verbrauch bei +(15%+5w) liegt, im gegensatz zu meiner schätzung von +30% flat.

d.h.- das aus deinen 260w PL im besten Fall (!) 304w verbrauch werden
HWInfo nutzt ja mittlerweile anscheinend auch eine Hochrechnungsformel, um GPU TBP für die AMD Karten anzugeben, diese Nachmacher^^

+30% Flat hätte dir aber auch auffallen müssen, dass das nicht hinkommt, so eine 6900XT hat 255W TGP und zieht 295-300W maximal, nicht nur im besten Fall.

Basierend auf unserer Formel müsste eine 7900XTX dann eine TGP, also die Verbrauchsanzeige im Treiber bei 0% PL Veränderung, von ~300-305W haben, kann das wer bestätigen?
 
Ayo34 schrieb:
Eben nicht, von 7nm auf 5nm hast du 2nm weniger. Von 5nm auf 4N (auch 5nm!) hast du genau 0nm weniger. Am Ende sind das Anpassungen des 5nm Prozesses und das hat man dann 4N getauft.
Darum habe ich ja auch jeweils "echte" davor geschrieben. Ich weiß, dass es sich bei 4N um einen angepassten 5N-Prozess handelt. Aber selbst das bringt Nvidia einige Effizienzvorteile gegenüber AMD. Wie groß dieser Wert ist, da kann man nur spekulieren. Es ist zumindest ein kleines Puzzleteil für die überlegene Effizienz von Ada. Der Hauptgrund ist für mich aber eher AMDs Multi-Chiplet-Design der ersten Generation. Da ist in Zukunft sicherlich noch einiges zu verbessern. Und natürlich hat Nvidia auch einen richtig guten Job gemacht, so ehrlich muss man schon sein.
 
Taxxor schrieb:
Basierend auf unserer Formel müsste eine 7900XTX dann eine TGP, also die Verbrauchsanzeige im Treiber bei 0% PL Veränderung, von ~300-305W haben, kann das wer bestätigen?

AMD hat das Monitoring offenbar abgepasst:
"AMD hat die Telemetrie komplett auf den Kopf gestellt, was in den meisten Belangen auch gut gelungen ist. Dass man endlich auch eine TBP auslesen kann, die einigermaßen stimmt, auch wenn sie nur gut geschätzt ist, ist ein großer Fortschritt."

Quelle: https://www.igorslab.de/amd-radeon-...hritt-nach-vorn-und-ein-kleiner-zur-seite/14/
 
Rockstar85 schrieb:
gehen wir vom Wahnwitz aus, dass du 365 Tage 5 Stunden 100W Lastunterschied hast.. Dann biste bei 183 Kw/h, bei 50 Cents sind das sicher 110€..
Nur wer Zockt 5Std am Tag und vor allem das 365 Tage?
Hier wird es bestimmt so einige Leute geben deren Lebensinhalt darin besteht nach 8-10 Bildschirmarbeit den Rest des Tages mit Zocken am PC zu verbringen. Kenne selber einen. Finde so ein Leben aber nur traurig. Erinnert irgendwie an eine Dystopie aus eine Sci-Fi Film.
Aber im Schnitt werden die meisten hier 5-6 Jahre brauchen. Davon kaufen die meisten jede Generation neu. Und 90% hier im Forum haben nach spätestens 2 Generationen schon mindestens 1x gewechselt. Also sollte das 100w mehr Argument nicht wirklich ziehen. Wenn dann sollte es dabei ehr darum gehen ist das in der heutigen Zeit noch OK 100w unnötig zu verschwenden: Klima, Abwärme etc.
 
  • Gefällt mir
Reaktionen: Rockstar85
ThePlayer schrieb:
Also sollte das 100w mehr Argument nicht wirklich ziehen.

doch das zieht. denn die Budget-option ohne Extras (kein/reduziertes RT), sollte natürlich auch im Verbrauch Budget sein, ansonsten kommen wir in eine Schieflage, in der die Budget Option "billig" (weniger wertig) erscheint.

  • gleiche leistung wie 4080 im Raster
  • deutlich weniger leistung in RT
  • support software reduziert (kein Dlss3)
  • deutlich mehr verbrauch
  • paar euronen weniger

klingt doch irgendwie kacke, das mit dem verbrauch im low-task sollte man in den griff kriegen, gaming bereich übernehmen die UV'ler, auf RT und DLSS3 können die meisten noch verzichten, aber dafür noch mehr strom zahlen ist unverständlich



da ist das AMD mantra:

- 20GB speicher sind zukunftsfähig

derselbe driss mit dem sie schon ihre 6700 XT hier im forum an den mann gebracht haben, und aktuell redet keiner mehr von 6700 XT im zusammenhang mit zukunft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
n0ti schrieb:
hat jemand bei Mindfactory schon eine Versand Bestätigung bekommen ? bei mir steht beim Status nur Bezahlt, auf nachfrage wurde nur gesagt das die Ware für den Versand vorbereitet wird.
Naja der Praktikant braucht bissel länger beim Schleifchen binden 😉. Bei AMD ist das genau so "order in process" . Dauert eben bissel, ich vertreibe mir die Zeit in der Chipfabrik und guck zu wie Wafer wachsen 😁
 
DevPandi schrieb:
.... und dann meinem Chef und anschließend der Kommission vorstellen.
"Hätte man bei der Erschaffung der Welt eine Kommission eingesetzt, dann wäre sie heute noch nicht fertig."
Georg Bernhard Shaw
;)
 
  • Gefällt mir
Reaktionen: Benji18
Melu76 schrieb:
da ist das AMD mantra:

- 20GB speicher sind zukunftsfähig
Du hast den DP2.1 vergessen, den man ja unbedingt braucht, obwohl es dafür fast keinen Monitor gibt und wenn doch, kostet er mehr als die Graka.
Abgesehen davon ist die Karte eh zu schwach, um ihn zu befeuern. :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, PHuV, Taxxor und 3 andere
MrHeisenberg schrieb:
Stimme definitiv nicht zu. Bei dem Preis wäre es mir egal, ob sie 350W oder 420W zieht, aber 600W ist ne andere Hausnummer.
Du musst bedenken, dass du bei 600W im Sommer eingehst. Das ist nicht mehr schön.
Selbst im Winter wird es schon unschön. Für mich sind 350w absolute Kotzgrenze beim Verbrauch. Allein schon aus ökologischen Gründen.
Ergänzung ()

chb@ schrieb:
Da wüsste ich auch gerne was da dran ist.
Oder ob die Firmware und Treiber noch 2-3 zum Release gebraucht hätten.
 
  • Gefällt mir
Reaktionen: Benji18 und b|ank0r
MrHeisenberg schrieb:
Du hast den DP2.1 vergessen, den man ja unbedingt braucht, obwohl es dafür fast keinen Monitor gibt und wenn doch, kostet er mehr als die Graka.
Abgesehen davon ist die Karte ist eh zu schwach, um ihn zu befeuern. :freak:

Mich würde mal interessieren was der Idle Verbrauch bei einem 8k Monitor mit 144hz bei AMD wäre. :D
 
  • Gefällt mir
Reaktionen: MrHeisenberg
ThePlayer schrieb:
Selbst im Winter wird es schon unschön. Für mich sind 350w absolute Kotzgrenze beim Verbrauch. Allein schon aus ökologischen Gründen.

im 24/7 betrieb würde ich niemals über 300w gehen, schon gar nicht da es UV, DLSS und FSR gibt, wenn man ein 7680x1440 setup benutzt, oder 5K dann kauft man sich halt eine 4090 oder etwas ähnlich potentes

ich weiß nicht mit welchem anspruchsdenken die leute agieren:

in der tat ist FHD, WQHD gaming für immer weniger geld möglich
und im high end bereich, der vorher gar nicht zugänglich war, den es gar nicht gab, es keinerlei vergleichmöglichkeiten gibt, ist es eben teurer

d.h. natürlich nicht, das ich nicht benchen will, und nichts von künstlichen Begrenzungen halte, beim benchen will ich natürlich maximale leistung ;)
 
Zuletzt bearbeitet:
Melu76 schrieb:
klingt doch irgendwie kacke, das mit dem verbrauch im low-task sollte man in den griff kriegen, gaming bereich übernehmen die UV'ler, auf RT und DLSS3 können die meisten noch verzichten, aber dafür noch mehr strom zahlen ist unverständlich
Na davon gehe ich mal aus das AMD noch einige der Probleme der 7900er in den Griff bekommt ob mit Treiber oder Bios Update. Und vielleicht steigt dann auch die Performance noch etwas. Die 100w mehr wären in meinem Fall 6-8 Jahre bis sie den Preisvorteil einer XTX zu 4080 auffressen würden und über 10 Jahre wenn ich die XT kaufen würde. In dieser Zeit hätte ich aber bestimmt schon 2-4x die Grtafikkarte gewechselt. Vor allem da ich RT sehr interessant finde. Und bis auf CP77 bisher mit meiner 6800xt zufrieden bin. Spiele gerade Spider Man in UWQHD mit FSR2.x und habe bei 60FPS rund 50% auslasstung der GPU selbst bei 4k komme ich bei 60FPS nicht an die Grenze.
DLSS3 mit FG ist interessant, AMD will da nächstes Jahr nachliefern. Und es braucht ja noch Spiele die das nutzen und dann braucht man auch die Hardware die das nötig macht.
Ergänzung ()

MrHeisenberg schrieb:
Du hast den DP2.1 vergessen, den man ja unbedingt braucht, obwohl es dafür fast keinen Monitor gibt und wenn doch, kostet er mehr als die Graka.
Abgesehen davon ist die Karte ist eh zu schwach, um ihn zu befeuern. :freak:
Wenn die Monitore nächstes Jahr kommen und du in 2560x1440 in Low Settings dann deine 400FPS und mehr nutzen kannst und Du als Nvidia Nutzer dann bei 240hz in die Röhre schaust sieht die Welt ganz anders aus.
Ich finde es Lustig wenn man sich hier aus dem Grünen Lager immer anhören muss wie Innovativ Nvidia ist. Vor 2 Jahren war ja das Killerfeature DirectStorage da kann ja AMD einpacken hieß es noch. Und jetzt wenn AMD mal was bringt heißt es kein Mensch braucht das und die Monitore gibt es nicht. Jaja
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Hatsune_Miku, McTheRipper und 2 andere
ThePlayer schrieb:
In dieser Zeit hätte ich aber bestimmt schon 2-4x die Grtafikkarte gewechselt.

macht wirtschaftlich keinen sinn, wenn man nicht direkt gebraucht kauft, weil der wertverlust bei neuware natürlich zu hoch ist. die zeiten, wo man zu einem höherem preis als man eingekauft hat, seine karten wieder loswird, sind vorbei

dann frag dich lieber warum du nicht direkt 2000 euronen auf den tisch legst und ne weile ruhe hast

wenn du von gebraucht zu gebraucht hüpfst ist das völlig ok.

ansonsten ist klar das dir der verbrauch wumpe ist, da du ja bei jeden GPU wechsel mehrere 100E verlust hast.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Hier wird es bestimmt so einige Leute geben deren Lebensinhalt darin besteht nach 8-10 Bildschirmarbeit den Rest des Tages mit Zocken am PC zu verbringen. Kenne selber einen. Finde so ein Leben aber nur traurig.
Ich Arbeite und Zocke 5 von 7 Tagen sicherlich 10+ Stunden am Tag. Ich kann beides Zeitgleich machen aber traurig finde ich mein Leben wirklich nicht ;)
 
  • Gefällt mir
Reaktionen: MasterAK und Capet
power-video-playback.png

power-maximum.png

average-fps_3840-2160.png


Die Sapphire legt noch eine Schippe drauf.
 

Anhänge

  • power-spikes.png
    power-spikes.png
    40,4 KB · Aufrufe: 108
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: b|ank0r
Melu76 schrieb:
macht wirtschaftlich keinen sinn, wenn man nicht direkt gebraucht kauft, weil der wertverlust bei neuware natürlich zu hoch ist. die zeiten wo man teurer als einkauf loswird ist vorbei
Ich kaufe nicht immer aber meistens die Karten neu. Aber selten zu Release. Gut die 6800xt habe ich nach wenigen Wochen neu gekauft. Aber sonst sind da meist 4-12 Monate dazwischen. Und oft dann auch wenn mir der Schuh drückt.
Und da ich nicht wie noch vor 7 Jahren in 1080p Spiele sondern seit zwei Jahren jetzt 3440x1440 bedienen muss. Ist immer die zweitschnellste Karte ein muss wenn ich nicht an den Schaltern drinn will.
Ergänzung ()

Sunjy Kamikaze schrieb:
Ich Arbeite und Zocke 5 von 7 Tagen sicherlich 10+ Stunden am Tag. Ich kann beides Zeitgleich machen aber traurig finde ich mein Leben wirklich nicht ;)
Ist ja auch Ansichtssache. Die Leute die ich kenne die 6 Stunde+ am Tag spielen. Tun auch nichts anderes. Das finde ich traurig.
 
  • Gefällt mir
Reaktionen: Rockstar85 und b|ank0r
Nekkepenn schrieb:
Die Sapphire legt noch eine Schippe drauf.
Effizienz ist einfach nicht gut, 3% Leistung 24% mehr Strom. Hoffe wirklich, dass der Fix schnell kommt, egal ob es Treiber oder Hardware ist.
 
  • Gefällt mir
Reaktionen: Innocience, b|ank0r und Nekkepenn
Wenn man die Verbräuche der aktuellen Karten sieht, dann bleiben nicht viele Karten (Vernunftentscheidung) übrig. Sind aus meiner Sicht die RTX 3070 und die Radeon RX6800. Beiden reichen bequem für WQHD aus. Alle anderen Karten sind entweder zu teuer und/oder verbrauchen einfach zu viel. Es muss auch nicht immer das "Neuste" sein....
 
  • Gefällt mir
Reaktionen: Jagdwurst, jaleco und b|ank0r
Zurück
Oben