Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.446
@EmeraldlyMint Und wie würdest du so einen Test angehen? Minimale Leistungsaufnahme ist im Grunde genommen nichts anderes als Leerlauf.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Nein, die Aussage des Test der Redaktion ist: Einfach volles Watt geben führt zu perversen Verbräuchen.CrustiCroc schrieb:Naja, die Redaktion macht diese Aussage.
Schade um die Zeit.SirDoe schrieb:Ich ordne das bei mir im Kopf als "interessante Machbarkeitsstudie" ein, danke für den ganzen Aufwand.
Das gibts halb-gar mit der 144 FPS-Messung in drei Spielen im Schnitt. Die 4090 ist unangefochten auf Platz 1, was Energieeffizienz pro Watt bei "geringer/limitierter" Leistung angeht.EmeraldlyMint schrieb:Maximaler Takt alles schön und gut - wie wärs mal mit Leistung bei minimaler Leistungsaufnahme? Das würde mich interessieren.
Wobei da eine aktuellere Messung für die 7900XTX und 7900XT gibt.DJMadMax schrieb:ie 4090 ist unangefochten auf Platz 1, was Energieeffizienz pro Watt bei "geringer/limitierter" Leistung angeht.
DevPandi schrieb:Die Frage an der Stelle - die wirfst du ja selbst auch ein - ist, wie viel Power-Budget an anderen Stellen benötigt werden, wenn nicht nur die Vec32-ALUs ausgelastet werden.
Um hier wirklich Klarheit zu haben, müsste man an der Stelle weit tiefer in die Materie abtauchen und müsste den Treiber samt der Befehle, die an die GPU gehen, tracken. Frage ist dann, nutzt Blender bereits die Dual-Issues oder DPP, wenn nein, könnte es an der Stelle sein, dass sich die halbe Vec32 quasi langweilt und daher mehr Taktpotential freigibt. Dafür spricht ja auch, dass man die 3 GHz bei ca. 310 Watt erreicht.
Frage ist an der Stelle dann auch, inwieweit der Memory-Controller bei Blender gefordert wird, was da an Daten liegt, aber auch bei Spielen.
Hui, jetzt hab ich irgendwie Lust mal den Treiber vollständig zu tracken und die Auslastung der Karte, gleichzeitig weiß ich aber, dass das wieder so eine massive Arbeit ist, die am Ende zwar Klarheit bringt, aber bis auf wenige kaum interessiert.
Und am Ende ändert es auch nichts an den Problemen, sondern erklärt diese nur.
Ich glaube, dass hier das Problem bei den neuen Vec32 liegt, weil AMD hier versuchte relativ "elegant" sich für die Zukunft vorzubereiten, ohne dass sie die Fehler von GCN wiederholen. Auf der einen Seite die Dual-Issues, dass zwei OPs in der Vec aus dem gleichen Thread bearbeitet werden kann, oder dass man bei "zu wenig" Daten pro Thread auch die Threads zusammenfassen kann, was die Operatoren angeht.
Es gibt hier einige Fallstricke, aber die wirklich zu analysieren, benötige es einiges an Zeit und auch Fachwissen. Sowas wäre als Hausarbeit im Studium interessant.
Bedenke... wenn die XTX mit ~3,0Ghz nicht mal das Powerlimit reißt, dann wäre sie vllt am Ende doch bei ~80% einer 4090 rausgekommen.. Die OC werte sind nett, das war es dann aber auch.Zenx_ schrieb:Diese 5% mehr Leistung durch OC lohnen sich bei beiden Karten nicht, viel zu hoher Verbrauch für kaum Mehrwert.
Sowas wurde schon in Sachen deaktiviertem Shader Perfetch vermutet und hat sich nicht bestätigt bzw. widerlegt.der Unzensierte schrieb:Auf Grund der hier ermittelten Werte und der Ergebnisse steigt die Wahrscheinlichkeit das die Gerüchteküche richtig liegt und RDNA3 als Navi31 einen Designfehler hat ein wenig.
Danke Wolfgang.. Nun wird spannend, was Navi32 wird, so er denn kommt.. Wenn Navi 33 am Ende pro CU 1TFlop schafft, dann Respekt. Ich hoffe ihr testet das ausgiebig.Wolfgang schrieb:So ist der Artikel auch gedacht.
Das "7900 XTX vs. 4080 OC" gibt es quasi nebenbei. Eigentlich geht es in dem Artikel darum, RDNA 3 etwas besser zu verstehen und zu analysieren, was mit den Taktraten los ist und machbar ist.
Meinste nicht ehr als Masterarbeit? 🤪DevPandi schrieb:Es gibt hier einige Fallstricke, aber die wirklich zu analysieren, benötige es einiges an Zeit und auch Fachwissen. Sowas wäre als Hausarbeit im Studium interessant.
Behalte den Super Bowl im Auge, Media Markt hat da die letzten Jahre während des SB die Mehrwertsteuer geschenkt AktionNicop schrieb:Puh. Also eine übertaktete 4080 verbraucht noch weniger als eine non oc XTX. Kann sich ja jeder die Langzeitkosten ausrechnen, vor allem bei 40+ ct Stromkosten aktuell. Denke bei 1000 Euro würde ich bei einer 4080 zuschlagen, vielleicht gibt's das ja im Herbst bei irgendwelchen Cashback Optionen.
Fehlende Optimierungen auf Treiber und Anwendungsseite. Sieht man ja in den Verbesserungen am 22.12.2 Treiber Test sowie die Veröffentlichung des 600 Seiten RDNA3 Referenzhandbuch für ISA an die Entwickler. Hier fehlt sehr viel Optimierung hauptsächlich an die neue Architektur samt Chiplet Design.Unnu schrieb:Ich würde da jetzt wirklich gerne wissen, was da im Detail schief lief.
Denn offensichtlich kann RDNA3 ja so irre hoch takten, wie ursprünglich avisiert.
Und sprengt damit in Spielen alle auch nur ansatzweise sinnvolle Verbrauchswerte.
Also: Was lief - wo - schief?
Das war das Thema deaktivierter Shader Perfetch. Dieser ist aber aktiv somit wurde die Vermutung widerlegt.MasterAK schrieb:Ich hatte doch mal was gehört, dass es nen Hardware Bug bei RDNA3 geben soll. Vielleicht ist das der Grund, warum die Leistungsaufnahme so hoch ist.
Oh ne, das mit dem Shader Prefetching war ne ganz andere Sache und widerlegt ist das nicht wirklich. AMD hat das behauptet, aber die haben auch behauptet, dass nur ein kleiner Prozentsatz der Referenzkarten von dem Vapor Chamber Fehler betroffen seien.Taurus104 schrieb:Das war das Thema deaktivierter Shader Perfetch. Dieser ist aber aktiv somit wurde die Vermutung widerlegt.
Irgendwie ist mir "alles ein Softwareproblem" zu wenig.Taurus104 schrieb:Fehlende Optimierungen auf Treiber und Anwendungsseite.
Watt ist ja der Verbrauch. Dass Watt also zu Verbrauch führt ist jetzt dann aber ne voll zielsichere Aussage ?DerRico schrieb:Nein, die Aussage des Test der Redaktion ist: Einfach volles Watt geben führt zu perversen Verbräuchen.
Früher hat man die Karten nah am Sweetspot der jeweiligen Architektur betrieben, und Enthusiasten haben sie auf Kosten der Effizient ausgequetscht.Chesterfield schrieb:und die Zeiten von Übertakten (mehr Nachteile als Vorteile) haben wir zum Glück hinter uns gelassen (verbrauchen auch so schon mehr als genug)
Komischer Vergleich. Keine Ahnung, wie die Maschine arbeitet, die die Flüssigkeit in die Kühler füllt. Wie viel bei welcher drin ist, wird aber vermutlich gar nicht erfasst, sonst wäre der Fehler ja aufgefallen. Ob AMD da trackt, welcher Kühler aus welchem Werk wo genau drauf gelandet ist, kann ich nicht nachvollziehen.Zer0Strat schrieb:[...]aber die haben auch behauptet, dass nur ein kleiner Prozentsatz der Referenzkarten von dem Vapor Chamber Fehler betroffen seien.
Frage ist halt auch, mit welchen Fehlern man leben kann und will. Jede Architektur hat irgendwo Fehler, die man an anderer Stelle wieder ausbügelt. Oder halt auch (erstmal) nicht, zB. die ganzen Lücken in x86-CPU's, die in den letzten Jahren bekannt wurden.Taurus104 schrieb:Ich denke nicht, das man hieraus einen Grundlegenden architektonischen Designfehler ableiten oder bestätigen kann.
Hier mal ein paar mehr Infos dazu: https://forums.anandtech.com/thread...ectures-thread.2589999/page-143#post-40907243kiffmet schrieb:Errata gibts auch genug (siehe Whitepaper und Mesa gitlab);
Schafft aber auch mehr Unabhängigkeit von Entwickleroptimierungen. Ich denke nicht, dass AMD den Schritt gegangen wäre, wenn sie keine Strategien dafür hätten. Wer weiß, vielleicht sind AI-optimized Ansätze geplant. ^^kiffmet schrieb:Compilerkomplexität war das, was letztlich zum Tod von AMDs VLIW Architektur (und Intels Itanum) geführt hatte.
Es geht darum, dass sie scheinbar keine Skrupel haben, Schutzbehauptungen aufzustellen. Ich glaube AMD das nicht ohne weiteres. Es steht so im Code eines Open Source Treibers. Die machen das schließlich nicht zum Spaß.Pjack schrieb:Komischer Vergleich.