Schlechte Leistung der XFX RX 6900 XT Speedster MERC319

NerdmitHerz schrieb:
so sieht es aus, wenn die XFX Speedster ZERO Radeon RX 6900 XT RGB EKWB Waterblock Limited Edition ...
Net schlecht, ist aber ne XTXH.
(wäre eher mit den 6950 zu vgl.)

btw.
Momentan ist der 3dMark bei Steam im Angebot.
Advantage ggü. der kostenlosen Version, = man kann die Demo abwählen, somit ist der Gesamtrun kürzer
und dadurch bezgl. Temps leichter zu händeln.
 

Anhänge

  • 3dMark im Angebot.JPG
    3dMark im Angebot.JPG
    137,4 KB · Aufrufe: 70
Zuletzt bearbeitet:
Wie soll mir das alles überhaupt irgendwie helfen? Führt ihr Selbstgespräche?
 
gidra schrieb:
Wie soll mir das alles überhaupt irgendwie helfen?
Da wir noch immer nicht wissen, welches Problem existiert, kann man hier nur allgemeine Dinge besprechen.
 
  • Gefällt mir
Reaktionen: H1ldegunst
Ernsthaft? Ihr spammt hier weiter rum, obwohl ihr es immer noch nicht begriffen habt, worum es geht?
Seltsam nur, dass paar Nutzer es sofort erkannt haben. Keine Lösung zu kennen oder keine Ansätze zur Lösung zu liefern, ist eine Sache. Wäre der Umstand einfach, hätte ich es wohl auch selbst gelöst. Aber noch nicht einmal die geschilderte Problematik zu begreifen?
 
Dafür dass du Hilfe suchst, hast du echt ein Benehmen was dermaßen fragwürdig ist...

Zudem solltest du mal den Begriff spammen Googlen bevor ihn hier verwendest. Weil das wir gemacht haben, nennt sich Konversation.

Zudem du schreibst auf Seite 1 dass du nicht die Temperatur als Problem siehst nur, sind deine gpu Temperaturen für 360w selbst für Wasserkühlung zu hoch.

Ich geh mal stark davon aus, dass deine pads und dein Delta bei Wassertemperatur ein Problem sind

Denn ein 420er mora (oder hast du da nur 3x 140er drauf) und nur eine 6900xt + 5700x sollte nicht diese Temperatur raus kommen

Zudem wenn dein Modell bei der Chip Lotterie eher so Richtung Montagsmodell ist dann ist es normal dass du weniger Punkte hast. Streuung gibt's auch bei gpus

Wie du auf Seite 1 hast
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Papabär
Nur um's nochmal genau zu verstehen, weil der Thread ein bisschen durcheinander geht und ich aus dem Startpost mit den unterschiedlichen Varinaten auch nicht ganz schlau geworden bin. Dein Problem, das du aktuell besprechen möchtest, ist jetzt das hier, oder?
gidra schrieb:
Von Anfang an. (...) Dennoch fiel es mir auf, dass sie weniger Leistung liefert als manche 6800XT.

Hier der Screen, den ich jetzt mit Wasserkühlung gemacht habe. Nichts verändert, so wie von XFX ausgeliefert. MCT resetet.
[IMG]https://pics.computerbase.de/forum/attachments/1351/1351872-034c6afc5594ce94f75cc23156de00eb.jpg[/IMG]
Bei dem Screenshot jetzt ist die Karte softwareseitig (Treibereinstellungen und BIOS, kein MPT aktiv,...) im Auslieferungszustand, hardwareseitig hat sie die Wasserkühlung darauf montiert?
Die Punktzahl für Stock ist in der Tat ziemlich niedrig. Nicht so, dass gar nichts funktioniert, aber auch PCGH gibt für die 6900xt 20250 Time Spy Punkte an und die Werte sind jetzt nicht unbedingt ausoptimiert, wer eine OC Karte hat oder ein sehr gutes Sample oder besonders gute Bedingungen, der liegt da tendenziell eher drüber.
Die Max-Temperatuten in HW info sind niedrig genug, nicht nur Hotspot, sondern auch VRAM, also gehen wir davon aus, dass der WaKü-Umbau in dem Fall nicht das Problem für eine gegenüber Ausgangszustand reduzierte Leistung ist.
PCGH gibt für ihren Run ca 2,32 GHz an, das sieht eigentlich ungefähr ähnlich aus wie in deinem Chart aus 3D Mark...

Hast du mal probiert, ob sich etwas ändert, wenn du das OC der anderen Komponenten (v.a. RAM) testweise herausnimmst?
Ansonsten wäre mein nächster Vorschlag, die Grafikbenchmarkszene mal mit CapFrameX mitzumessen und zu schauen ob man in der Messung etwas sieht, oder auch das Overlay von Intel Presentmon mal mitlaufen zu lassen, um genauer zu checken ob die GPU konstant gut beliefert wird:
GPUbusyTimespy.jpg
In einem rein GPU-limitierten Benchmark sollte GPU Busy nur minimal kleiner sein als die Frametime, wenn da häufig oder dauerhaft deutliche Lücken sind, hakt es irgendwo davor.
 
  • Gefällt mir
Reaktionen: Papabär und gidra
Vram ist ja nicht übertaktet gewesen. Wobei ich denke, dass in den Spielen dies kaum eine Rolle spielen würde. Wenn ich beim Vram unter 1000 gehe, wird der Bildschirm schwarz.
Flash_Muc schrieb:
In einem rein GPU-limitierten Benchmark sollte GPU Busy nur minimal kleiner sein als die Frametime, wenn da häufig oder dauerhaft deutliche Lücken sind, hakt es irgendwo davor.
Ich weiss nicht, was das ist und wie man das herausfindet. Bei hwinfo habe ich das nicht gefunden.

Ich habe einen rom von der Black aufgespielt. Hat jetzt PL von 289W, ansonsten scheint alles gleich zu sein. Daher eben 19.000.
bandicam 2024-03-17 17-51-56-508.pngbandicam 2024-03-17 17-50-58-481.png

Da sieht man deutlich, wann die 2 Grafikbenchmarks tatsächlich liefen. So weit sieht alles stabil aus, keine Einbrüche.
 
gidra schrieb:
Da sieht man deutlich,
Das 3DMark nicht in offiziellen Einstellungen läuft.
Warum ist es manipuliert?
 
  • Gefällt mir
Reaktionen: Klaus0815
Wenn ich bescheissen wollte, hätte ich ihn wohl in die andere Richtung manipuliert. Den CPU Test habe ich ausgelassen. Was mich angeht, hätte ich nur den 1 Test zum Vergleich genommen. Dauert alles viel zu lange.
Bei Superposition 1080 Extreme, sehe ich die Veränderung schon nach der 1 Sekunde. Da werden rechts oben min/max FPS angezeigt.
 
weitere Selbstgespräche:

1. lief die Graka unter Luft schon nicht optimal, da hätte ich die Graka einfach mal bei nem Kumpel
in nen modernen PC mit schnellerem Ram und PCiE 4.0 gesteckt.(sein Ergebnis mit 266W siehe Anhang)
Er hatte im Luxx zuerst nachgefragt.

2. fehlt hier im Thread der Test im GPU-Z, ob der PCiE 3.0 tatsächlich mit 16x läuft
3. Ob DDR 3-1866 überhaupt reicht, um die 6900 zu füttern, who knows.
4. ist zw. 266W und 289W kaum ein Fortschritt zu erkennen, ... da könnte man auch auf 255W ala Ref. runter
und dann tatsächlich mal MPT zum Optimieren nutzen
(5. der Sinn vom validierten TS-Ergebnis ist ja, das UL auch mal durchschnittliche Taktraten für GPU+Vram
ermittelt, die man dann Hier im Thread vgl. könnte)

Optimierungsvorschlag im Anhang:
Bitte übernehmen und Laufen lassen, nicht nur einfach immer alle Vorschläge ablehnen.
(die Beispiele von anderen Usern sind ja kein Selbstzweck)
 

Anhänge

  • gidra luxx 266W.png
    gidra luxx 266W.png
    521,6 KB · Aufrufe: 72
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NerdmitHerz
gidra schrieb:
Benchmark-Werte sind mir unwichtig, aber es zeigt, dass es irgendwo was nicht in Ordnung ist
3 Seiten geht es aber ausschließlich nur darum!!

Wie wäre es mal mit realen Anwendungen?
Du versteifst dich auf 1500Punkte..
Vielleicht einfach ein schlechter Chip.
Vielleicht andere Anomalien, die wir nicht kennen.

Zocke dich endlich mal mit der Karte!
 
  • Gefällt mir
Reaktionen: NerdmitHerz
1. Ja.
2. Steht im Post Nummer 1.
3. Welche Schritte hast du bereits unternommen/versucht, um das Problem zu lösen und was hat es gebracht?
...
Treiber, Chipset, deinstalliert, im abgesicherten Modus gesäubert, neu installiert. (amdcleanuputility, DDU)
Frischer Windows 10x64
Powerplan auf Höchstleistung umgestellt
PCI-E 14 GB/s
SAM an oder aus
Treiber 24.2.1 Standard

3: Beitrag Nummer 4
4. Genau das, ist ja das Problem.
GerryB schrieb:
Optimierungsvorschlag im Anhang:
Bitte mal übernehmen und Laufen lassen, nicht nur einfach immer alle Vorschläge ablehnen.
Durch Eingrenzung wird man nicht mehr Leistung erzielen, wenn PL quasi losgelöst ist und die Kühlung ausreichend ist.. Die höchste PL hat die wassergekühlte Powercolor RX 6900 XT Liquid Devil Ultimate, nämlich 332 W. Ich habe sogar 360 W genommen. Einziger Unterschied ist die Spannung von 1.2 V statt 1.175. Wenn ich allerdings meine Aufzeichnung ansehe, so lagen maximal 1.12 V an. So ist die sogar von 1.175 V weit entfernt.

Doch dein Bild zeigt quasi dasselbe Verhalten. Was ist das für eine Version der XDX 6900XT?

@Skudrinka

Ich bin echt leid, mich zu wiederholen. Wenn jemand nicht mal die Problematik nachvollziehen kann, so wird derjenige erst recht nicht die Lösung liefern können. Warum dann stur mitdiskutieren wollen?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GerryB
Das mit dem Ram hatte ich übersehen.
(und das der PCiE auch hochgeht, wie er soll)

bei meinem alten Intel geht auch nur PCiE 3.0
maximal 8,0GT/s wird da angezeigt

da wäre X370 Taichi mit 14GT/s erstaunlich gut ,
edit: 14GB/s ist was Anderes passt und ist sehr gut
 

Anhänge

  • PCiE-Test.JPG
    PCiE-Test.JPG
    60,2 KB · Aufrufe: 63
Zuletzt bearbeitet:
Nun, das kann ich so nicht überprüfen. Das war der Test 14 GB/s von 3DMark, plus, wenn ich richtig verstanden habe, Fehlerkorrektur? 16 GB/s maximal gehen nur theoretisch.

Jetzt merke ich, dass das Resultat des Benchmarks auf die limitierten Einstellungen basiert. Dann ist das aber nicht das Gleiche.

GPUZBlack.gif
 
  • Gefällt mir
Reaktionen: GerryB
War bei mir nur kurz der GPU-Z Test.

Im Luxx gibts auch andere User mit älteren Intel-Boards@PCiE 3.0.
k.A. ob beim TS da was Falsches angezeigt wird.
DaHell hat auch nur 8,0GT/s (siehe Anhang)

Ob beim AMD-Taichi der PCiE 3.0 erstaunlicherweise mehr kann, da habe ich k.A., wenn ja wärs also auch nicht
das Bottleneck. (ist durch Ryzen5700 dann 4.0 aktiv?)

Mein ursprünglicher Gedanke war, das der PCiE 3.0 evtl. statt 16x nur 8x läuft und nur 4,0GT/s zur Verfügung stehen. (wenn Was beschädigt ist oder die Graka nicht richtig im Slot steckt, ... oder Bios?)
 

Anhänge

  • DaHell@150W+.png
    DaHell@150W+.png
    368,2 KB · Aufrufe: 69
Zuletzt bearbeitet:
Das ist 3.0 x16.
Man kann die Spannung nicht wirklich regulieren. Die Karte ignoriert alle Einstellungen. In von dir geposteten Bild geht die Spannung maximal bis 1.06 V.
 
gidra schrieb:
Ich weiss nicht, was das ist und wie man das herausfindet. Bei hwinfo habe ich das nicht gefunden.
Das ist Intel Presentmon: https://game.intel.com/us/intel-presentmon/ (wenn man das Overlay auf GPU Fokus stellt und aktiviert, dann bekommt man Frametime und GPU Busy wie im Overlay angezeigt, wie in meinem Screenshot).
gidra schrieb:
Ich habe einen rom von der Black aufgespielt. Hat jetzt PL von 289W, ansonsten scheint alles gleich zu sein. Daher eben 19.000.
Die Karte sollte ja auch mit dem Standard-BIOS korrekt laufen, denke da würde ich nicht mehr Varianz reinbringen als nötig.
 
  • Gefällt mir
Reaktionen: GerryB
Aber was ist GPU Busy? Leerlauf?

Die Karte hat 2 identische Biose, die per Schalter umgeschaltet werden können.

Ich bin mal auf einen interessanten Beitrag gestossen:
Für mich sieht es so aus, als kommt bei diesem GPU-Busy Wert nichts anderes raus als bei der guten alten Rechnung
"Du hast gerade 60 FPS bei 50% GPU Auslastung? Dann könntest du 60 / 50 *100 = 120 FPS haben", was als Metrik ziemlich unbrauchbar ist, seit GPUs ihre Takraten dynamisch verändern und damit auch die Auslastung nichts darüber sagt, wie viel Reserve die GPU noch hat(wenn man nicht bereits im Bereich >90% ist).

Man kann halt sehen, dass man nicht im GPU Limit ist, wenn der GPU-Busy Wert in ms niedriger ist, als die Frametimes, genaueres kann man aber nicht sehen und das gleiche sieht man auch, wenn man sich die GPU Auslastung in dem Zeitraum anschaut.
Der einzige potenzielle Vorteil ist, man braucht keine Telemetriedaten der GPU zu erfassen um diese Erkenntnis zu erhalten.
 
Zuletzt bearbeitet von einem Moderator:
gidra schrieb:
Man kann die Spannung nicht wirklich regulieren. Die Karte ignoriert alle Einstellungen. In von dir geposteten Bild geht die Spannung maximal bis 1.06 V.
Wozu brauchst Du jetzt schon mehr Volt?

Das Bottleneck setzt schon unter 255W ein, wo man effektiv keine 1,05V braucht.
(Offset verschiebt schon die eff.V, also der Treiber regelt, ... und das man generell nicht auf 1,175V kommen kann sondern maximal auf eff.1,118V ist so von AMD für die 6900xt festgelegt/gecapped)

Das Bsp. () ist mit 100mV Offset, was nicht jeder Chip kann, ... 50mV sollte meistens funzen.
 

Anhänge

  • 6900xt WM1175 vs 1075mV.jpg
    6900xt WM1175 vs 1075mV.jpg
    230,3 KB · Aufrufe: 62
Zuletzt bearbeitet:
gidra schrieb:
Aber was ist GPU Busy? Leerlauf?
Das Gegenteil von Leerlauf - die Zeit, die eine Grafikkarte konkret damit beschäftigt ist, ein Bild zu rechnen.
Oder sehr viel genauer von einem intel-Ingenieur erklärt:
 
Zurück
Oben