Sammelthread Big Navi RX 6700XT/6800(XT)/6900XT Overclocking/Undervolting

Der R 3600 braucht vor Allem etwas Ram Ocen. (CPU-Reviews@Intel ohne XMP sind z.Bsp. Bullshit)
dann
Läufts in TS auch kaum limitiert: SAM muss natürlich auf dem PC aktiviert sein
(Duvar hat nur ne Ref.)

btw.
HUB testet oft ohne SAM, dann kommt totaler Käse raus! (nur in extra Reviews dann mit SAM@R3600, why?)
Hier mal mit SAM:
 

Anhänge

  • TS@3600+6900.JPG
    TS@3600+6900.JPG
    82,7 KB · Aufrufe: 176
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim und Verak Drezzt
@GerryB so viel mehr an Leistung isses mit SAM aber au net, guck dir halt mal den PCGH Link den ich gepostet hab an, wirklich viel rausreißen wird er mit SAM und selbst mit schnellerem Speicher nicht, gegenüber nem aktuellen 5800X
 
Es geht darum, das der 3600 für normalen Betrieb ohne Graka-OCen reicht.(x)
Keiner sagt, das der 3600 an den 5800 rankommen muss.

(x) in DX11-Games mit Drawcall-Limit kanns mal knapp werden, aber da ist dann auch die AMD-Graka+Treiber net optimal, ... da kann man dann nur hoffen, das es mit DXVK geht
(würde mich vor Kauf des Games schlau machen)

Mir persönlich in 4k ist glücklicherweise das Gelaber und Geteste in 720p vollkommen egal.
 
Wie gesagt die CPU's werden deshalb in 720P getestet damit man ihre Rohleistung erkennen kann, ohne das man irgendwie ins GPU Limit rutscht. Denn wie gesagt der CPU isses egal ob du in 720P, 1080P, 1440P oder in 2160P zockst.

Die CPU liefert in jeder Auflösung gleich viel FPS und wenn ein R5 3600 in Game XY max. 80FPS liefert, du aber eine 6900XT im System hast die in WQHD 160FPS liefern könnte, dann rennst du halt mit deinem R5 3600 mit nur 50% GPU Auslastung ins CPU Limit.

Da die CPU halt net mehr FPS berechnen kann und in 4K rennsde dann vielleicht immer noch mit nur 80% GPU Auslastung ins CPU Limit weil net mehr wie 80FPS bei raus kommen.
 
  • Gefällt mir
Reaktionen: Firstdim
Kommst Du denn mit 6800xt@10700 in TS höher als Duvar mit 6900@3600=23800grafik-points?

btw.
Mein Moni hat eh nur 60Hz. (reicht in 4k)
 
Zuletzt bearbeitet:
Das ist egal Gerry, nur weil dein Monitor 60Hz liefert, kannst du trotzdem mehr FPS haben. Vor 20 Jahren haben wir auch mit 300FPS Unreal Tournament, CounterStrike 1.6 oder Quake mit nem 60/100Hz CRT Monitor gezockt, aufgrund des geringeren Inputlags bzw. der Reaktionszeit.

Das ist ein Irrglaube zu meinen man bräuchte synchrone FPS zur Hz Zahl des Monitors. Der Vorteil von schnellen Monitoren ergibt sich auch durch weniger FPS und hat rein gar nichts mit der FPS Zahl zu tun, außer das man dadurch wie gesagt den Inputlag verringert und die Reaktionszeit erhöht.

Deswegen isses auch Schwachsinn in jedem anderen Genre wo man auf schnelle Bilder angewiesen ist, wie z.B. bei Shootern oder Rennspielen, mit mehr als 60FPS rumm zu springen.
 
Enhanced Sync mag ich net.

Wer für e-sports ne schnelle CPU braucht solls halt mit ner kleinen Graka paaren.(zwecks Budget)
Und bei ollem DX11-DrawcallLimitSchrott gehts eeh mit NV-Graka besser.(vor dem Kauf schlau machen)
 

Anhänge

  • CSGO@1440p_SAM=ON.png
    CSGO@1440p_SAM=ON.png
    461,9 KB · Aufrufe: 175
  • 3050@CsGO.png
    3050@CsGO.png
    61 KB · Aufrufe: 178
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
zu adaptive- oder g-sync auch kein Vergleich, da man ja mehr oder weniger soweit ich weiß die doppelte FPS Anzahl brauch um ein vernünftiges Bild hinzubekommen, sprich bei 60Hz dann 120FPS, keine wirkliche Alternative zu besagten sync Technologien, aber gab es ja damals au net

wie gesagt wenn @Firstdim seine 6900XT vernünftig ausgelastet bekommen will und ihm die FPS nicht ausreichen, dann muss er halt auf nen 5800X aufrüsten und wird das mit Optimierung des Speichers oder auch mit SAM/rBar nicht raus reißen können, wenn er letzteres net schon längst aktiviert hat
 
ES hat nix mit Verdopplung der Frames zu tun.
Die Graka und CPU rennen dann halt ungebremst > der Monifrequenz.
(in e-sports OK aber in AAA-games kostet es sinnlos Watt)

Verdopplung der Frames = LFC-Support ist ne Eigenschaft vom Moni!
z.Bsp.
spielen mit 70fps = 140Hz auf dem 144Hz-Freesync-Moni

Wenn mal die schnellen 4k-HDR-Monis preiswerter werden, würde ich auch umsteigen und dann
mit 60fps per LFC die 120Hz nutzen. (viele Monis, je nach Anschluss, können HDR10 eh nur bis 120Hz sauber)
--> am Besten noch auf DP 2.0 warten, oder nen TV mit HDMI 2.1 nehmen, falls genug Platz+Sitzabstand

derzeit gibts zwar DP1.4+VRR(DSC) aber mit kleinen Qualitätseinbußen, ... bei wenigen Monis, z.Bsp.
https://geizhals.de/asus-rog-strix-xg438qr-90lm04u0-b02170-a2470333.html?hloc=at&hloc=de
dank VRR reicht dann auch die Bandbreite von DP1.4 für HDR10-120Hz
(die aktuellen Grakas können nur DP 1.4, deswegen u.U. HDMi 2.1@TV preiswerter zu realisieren)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
@GerryB ist auch glaub wirklich nur von Vorteil bei E-Sportler die das Reaktionszeit mäßig auch umgesetzt bekommen, die ganzen wannabe E-Sportler da draußen mit nem 240Hz Bildschirm wären sicher mit nem 60Hz Monitor genauso gut bzw. scheiße, ist auch alles nur Marketing bzw. selbst generierter Hype durch die Szene

fand zuletzt auch kaum nen Unterschied zwischen meinem alten WQHD TN 155Hz Dell und meinem 4K IPS AOC mit 60Hz hier jetzt, hatte wie zuvor in Battlefield 5 und Rainbow Six:Siege meine 1-1.5er KD und konnte keinen wirklich Unterschied feststellen, kommt aber wohl auf jeden selbst an
Ergänzung ()

ja warte auch auf die kommenden 4K 144Hz Modelle wo ich dann auch etwa wieder wie bei meinem Dell von 400€ zuschlagen werde, schon die Grafikkarte für 950€ im Herbst letzten Jahres war schon zu heftig, aber hab halt mit meiner alten Vega64 in WQHD mit meinem Dell, kein Land mehr gesehen gehabt bei 60FPS medium Details

un dann hab ich die 6800XT im "Angebot" gesehen und zugeschlagen un kurz darauf den AOC 4k IPS 10bit Panel im MM MwSt sale für 250€ geschossen und bin mehr als zufrieden, OLED oder Quantum Dot wäre vielleicht beim nächsten Monitor noch geil, da nur wegen den 144Hz ich glaub net wechseln würden wollen, mal schauen
Ergänzung ()

@GerryB ist doch schon einiges was man durch SAM rausholen kann, selbst unter 4K. Dachte nur in 1080P wäre SAM wirklich von Vorteil, aber selbst unter 4K zieht man da noch bissi was an Leistung raus.
Ergänzung ()

GerryB schrieb:
Kommst Du denn mit 6800xt@10700 in TS höher als Duvar mit 6900@3600=23800grafik-points?
das maximum was ich ohne SAM rausgeholt hatte, weil ich erst vor kurzem mein Bios dafür upgedatet hatte, waren knapp 21k Punkte im TS, so wie auch der Link in meiner Signatur, aber auch nur mit Wattman optimiert, mit MPT steig ich net wirklich durch un is mir zu viel zum einstellen un hab Angst da irgendwas falsch zu machen
Ergänzung ()

GerryB schrieb:
derzeit gibts zwar DP 1.4+VRR aber mit kleinen Qualitätseinbußen, ... bei wenigen Monis
https://geizhals.de/asus-rog-strix-xg438qr-90lm04u0-b02170-a2470333.html?hloc=at&hloc=de
ja ne VA kommt mir net rein aufgrund von schlieren un ghosting Effekten, warte da wie egsagt auf IPS 10bit un vielleicht annähernd vernünftigem HDR für 400-450€, kann dann von mir aus au 60Hz sein
 
Zuletzt bearbeitet:
Ich hatte früher mal den C32HG70, der war von P/L her ganz OK, auch wenns net so viel Dimmingzonen gab.
Insofern kann ich net pauschal bestätigen, das alle VA = schlecht wären.(x)
https://www.computerbase.de/2018-09/samsung-c32hg70-test-gaming-monitor/

(x) vermutlich sollte man aber um die billigen unbeschichteten VA nen Bogen machen

Was ich seitdem weiß, das mir Nachts HDR600 reicht. (sonst verblitzt man sich nur die Augen)
 
  • Gefällt mir
Reaktionen: Firstdim und Verak Drezzt
Hab grad nomma zwei mal gebencht und hat sich mit SAM net wirklich was an den GPU Punkten getan. CPU Punkte gingen um 600 hoch aber mehr net, komme net über 2.5GHz und 21K Punkte hinaus. Aber ist au vollkommen ok für das undervolting und dem OC von fast mehr als 200MHz im Turbo bin ich mehr als zufrieden per Wattman. Hab hier schon schlimmere Ergebnisse mit einer 6800/6900XT gesehen, die net mal über 20k hinaus kamen und bei 1.1v dicht machten.
 
@Iguana Gaming

mit dem MPT würde ich mich nochmal auseinandersetzten. Hatte anfangs auch Bedenken aber ist wirklich kein Hexenwerk und mit den paar relevanten Stellschrauben machst du auch Nichts kaputt und ist Alles auch reversibel.

Fahre seit längerem ein leises Profil was sich als stable incl. TS2 bewährt hat. Nachwievor heizen Division2 ,CP und der MSFS der Karte am meisten ein wo das PPT-Limit voll ausgeschöpft wird und die Leistung gebraucht wird. Hotspot liegt bei max.85 mit diesen Einstellungen.

Screenshot (660).png
 
  • Gefällt mir
Reaktionen: Verak Drezzt
@Tornavida kommst aber au net über 21k Punkte hinaus ?, denke das ist schon soweit ok bei mir über Wattman mit knapp 21k. Der Verbrauch der Karte liegt im Schnitt laut MSI AB bei ca. 220W mit 1060mv, Ausnahmen sind da nur Titel wie RDR:online oder BF2042 wo die Karte dann auch auf 2.5GHz boostet und bei etwa 280-300W liegt.
Ergänzung ()

würde halt MPT nur nutzen wenn ich nen noch gleichen/höheren Takt hinbekomme, bei selbigem oder weniger Stromverbrauch.
 
21K ist für die 235Watt asic aber auch normal. (mit DS=off und fclk>>1940 machbar)

btw.
Duvar hatte bei dem 23,8k-Run mal in Richtung 400W asic aufgedreht.
(im Post oben, gings eigentlich nur um die Frage, ob sein 3600@fast Ram dann limitiert)
 
Zuletzt bearbeitet:
Das will ich ja gar net erreichen, wenn möglich sogar noch weniger verbrauchen wie jetzt und am liebsten dauerhaft zwischen 200-250W, wie zuvor bei meiner Vega64, liegen. Aber da tut sich net wirklich mehr was, sobald ich unter 1050mv und weniger als 2300MHz gehe, schmiert mir TS und alles andere ab.

Daher passt das schon so, auch aufgrund weil kommende Games net wirklich weniger leistungshungrig werden und ich noch früh genug die details auf medium-high schieben muss um in 4K meine 60+ FPS raus zubekommen.
 
Probier mal ne Custom Resi 1836p zu erstellen. Das sieht auf meinem Moni noch ganz gut aus.
(quasi die alte TrixxBoost 85% Auflösung)

Zusätzlich geht auch dann noch FSR@Ultra ganz gut.
--> demnächst hoffentlich RSR per Treiber für alle Games
 

Anhänge

  • Hellblade@1836p-ultraFSR.jpg
    Hellblade@1836p-ultraFSR.jpg
    1,4 MB · Aufrufe: 171
  • 1836p.png
    1836p.png
    46,7 KB · Aufrufe: 190
  • Gefällt mir
Reaktionen: Verak Drezzt
Damit hab ich mich noch gar net mit beschäftigt, DSR oder ? bzw. FSR macht doch nix anderes als wie die native Auflösung senken, wenn das Game dies unterstützt. Aber ist auch ok soweit, wie gesagt wenn das ein oder andere Game mal über 220W im Schnitt geht, isses au noch in Ordnung.

Könnte dann ja au noch die Details zwecks Verbrauch senken. Aber bisher ist da keine wirkliche Not wegen den 30-50W mehr, außer die Strompreise sprengen dieses Jahr noch die 50c/kwh für Bestandskunden ...
 
Ist ja klar, das "momentan" Deine XT noch net so schnell limitiert wie meine nonXT.
(bei mir hats halt schon geholfen)

mal noch ein Bsp von nem YTer für 1800p+FSR-ultra
(Der war zu faul 1836p zu erstellen und hat nur das im W10 vorhandene 1800p genommen)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
hab mir im Netz auch schon etliche Spiele im FSR/nativ Modus Vergleich angeschaut und man sieht da ja kaum oder gar keinen Unterschied. Vor allem achtet man beim spielen eh net genau auf die Details und bin ganz froh das dies in Zukunft, wenn es unterstützt wird, dann au nomma das aufrüsten um einige Monate, und vielleicht dann auch bis zur nächsten GPU Generation Release, hinauszögern kann.
Ergänzung ()

@GerryB hatte ich jetzt gar net drauf geachtet gehabt welche GPU du verbaut hast Gerry und war kein Seitenhieb an dich. Dachte du hättest au ne 6800XT bzw. gar ne 6900XT drinne.
Ergänzung ()

das ist nice mit FSR und knapp 45FPS in 4K mit RT, aber auf RT lege ich solang die Leistung jenseits der 60FPS net gegeben ist, keinen wirklichen Wert, so viel besser sehen Games mit RT m.M.n. au net aus das es sich jetzt auf biegen und brechen lohnen würde es zu aktivieren, da nehme ich stabile FPS um die 60 eher mit als die Candy Eye Effekte
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim
Zurück
Oben