Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Der R 3600 braucht vor Allem etwas Ram Ocen. (CPU-Reviews@Intel ohne XMP sind z.Bsp. Bullshit)
dann
Läufts in TS auch kaum limitiert: SAM muss natürlich auf dem PC aktiviert sein
(Duvar hat nur ne Ref.)
btw. HUB testet oft ohne SAM, dann kommt totaler Käse raus! (nur in extra Reviews dann mit SAM@R3600, why?)
Hier mal mit SAM:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
@GerryB so viel mehr an Leistung isses mit SAM aber au net, guck dir halt mal den PCGH Link den ich gepostet hab an, wirklich viel rausreißen wird er mit SAM und selbst mit schnellerem Speicher nicht, gegenüber nem aktuellen 5800X
Es geht darum, das der 3600 für normalen Betrieb ohne Graka-OCen reicht.(x)
Keiner sagt, das der 3600 an den 5800 rankommen muss.
(x) in DX11-Games mit Drawcall-Limit kanns mal knapp werden, aber da ist dann auch die AMD-Graka+Treiber net optimal, ... da kann man dann nur hoffen, das es mit DXVK geht
(würde mich vor Kauf des Games schlau machen)
Mir persönlich in 4k ist glücklicherweise das Gelaber und Geteste in 720p vollkommen egal.
Wie gesagt die CPU's werden deshalb in 720P getestet damit man ihre Rohleistung erkennen kann, ohne das man irgendwie ins GPU Limit rutscht. Denn wie gesagt der CPU isses egal ob du in 720P, 1080P, 1440P oder in 2160P zockst.
Die CPU liefert in jeder Auflösung gleich viel FPS und wenn ein R5 3600 in Game XY max. 80FPS liefert, du aber eine 6900XT im System hast die in WQHD 160FPS liefern könnte, dann rennst du halt mit deinem R5 3600 mit nur 50% GPU Auslastung ins CPU Limit.
Da die CPU halt net mehr FPS berechnen kann und in 4K rennsde dann vielleicht immer noch mit nur 80% GPU Auslastung ins CPU Limit weil net mehr wie 80FPS bei raus kommen.
Das ist egal Gerry, nur weil dein Monitor 60Hz liefert, kannst du trotzdem mehr FPS haben. Vor 20 Jahren haben wir auch mit 300FPS Unreal Tournament, CounterStrike 1.6 oder Quake mit nem 60/100Hz CRT Monitor gezockt, aufgrund des geringeren Inputlags bzw. der Reaktionszeit.
Das ist ein Irrglaube zu meinen man bräuchte synchrone FPS zur Hz Zahl des Monitors. Der Vorteil von schnellen Monitoren ergibt sich auch durch weniger FPS und hat rein gar nichts mit der FPS Zahl zu tun, außer das man dadurch wie gesagt den Inputlag verringert und die Reaktionszeit erhöht.
Deswegen isses auch Schwachsinn in jedem anderen Genre wo man auf schnelle Bilder angewiesen ist, wie z.B. bei Shootern oder Rennspielen, mit mehr als 60FPS rumm zu springen.
Wer für e-sports ne schnelle CPU braucht solls halt mit ner kleinen Graka paaren.(zwecks Budget)
Und bei ollem DX11-DrawcallLimitSchrott gehts eeh mit NV-Graka besser.(vor dem Kauf schlau machen)
zu adaptive- oder g-sync auch kein Vergleich, da man ja mehr oder weniger soweit ich weiß die doppelte FPS Anzahl brauch um ein vernünftiges Bild hinzubekommen, sprich bei 60Hz dann 120FPS, keine wirkliche Alternative zu besagten sync Technologien, aber gab es ja damals au net
wie gesagt wenn @Firstdim seine 6900XT vernünftig ausgelastet bekommen will und ihm die FPS nicht ausreichen, dann muss er halt auf nen 5800X aufrüsten und wird das mit Optimierung des Speichers oder auch mit SAM/rBar nicht raus reißen können, wenn er letzteres net schon längst aktiviert hat
ES hat nix mit Verdopplung der Frames zu tun.
Die Graka und CPU rennen dann halt ungebremst > der Monifrequenz.
(in e-sports OK aber in AAA-games kostet es sinnlos Watt)
Verdopplung der Frames = LFC-Support ist ne Eigenschaft vom Moni!
z.Bsp.
spielen mit 70fps = 140Hz auf dem 144Hz-Freesync-Moni
Wenn mal die schnellen 4k-HDR-Monis preiswerter werden, würde ich auch umsteigen und dann
mit 60fps per LFC die 120Hz nutzen. (viele Monis, je nach Anschluss, können HDR10 eh nur bis 120Hz sauber)
--> am Besten noch auf DP 2.0 warten, oder nen TV mit HDMI 2.1 nehmen, falls genug Platz+Sitzabstand
@GerryB ist auch glaub wirklich nur von Vorteil bei E-Sportler die das Reaktionszeit mäßig auch umgesetzt bekommen, die ganzen wannabe E-Sportler da draußen mit nem 240Hz Bildschirm wären sicher mit nem 60Hz Monitor genauso gut bzw. scheiße, ist auch alles nur Marketing bzw. selbst generierter Hype durch die Szene
fand zuletzt auch kaum nen Unterschied zwischen meinem alten WQHD TN 155Hz Dell und meinem 4K IPS AOC mit 60Hz hier jetzt, hatte wie zuvor in Battlefield 5 und Rainbow Six:Siege meine 1-1.5er KD und konnte keinen wirklich Unterschied feststellen, kommt aber wohl auf jeden selbst an
Ergänzung ()
ja warte auch auf die kommenden 4K 144Hz Modelle wo ich dann auch etwa wieder wie bei meinem Dell von 400€ zuschlagen werde, schon die Grafikkarte für 950€ im Herbst letzten Jahres war schon zu heftig, aber hab halt mit meiner alten Vega64 in WQHD mit meinem Dell, kein Land mehr gesehen gehabt bei 60FPS medium Details
un dann hab ich die 6800XT im "Angebot" gesehen und zugeschlagen un kurz darauf den AOC 4k IPS 10bit Panel im MM MwSt sale für 250€ geschossen und bin mehr als zufrieden, OLED oder Quantum Dot wäre vielleicht beim nächsten Monitor noch geil, da nur wegen den 144Hz ich glaub net wechseln würden wollen, mal schauen
Ergänzung ()
@GerryB ist doch schon einiges was man durch SAM rausholen kann, selbst unter 4K. Dachte nur in 1080P wäre SAM wirklich von Vorteil, aber selbst unter 4K zieht man da noch bissi was an Leistung raus.
Ergänzung ()
GerryB schrieb:
Kommst Du denn mit 6800xt@10700 in TS höher als Duvar mit 6900@3600=23800grafik-points?
das maximum was ich ohne SAM rausgeholt hatte, weil ich erst vor kurzem mein Bios dafür upgedatet hatte, waren knapp 21k Punkte im TS, so wie auch der Link in meiner Signatur, aber auch nur mit Wattman optimiert, mit MPT steig ich net wirklich durch un is mir zu viel zum einstellen un hab Angst da irgendwas falsch zu machen
ja ne VA kommt mir net rein aufgrund von schlieren un ghosting Effekten, warte da wie egsagt auf IPS 10bit un vielleicht annähernd vernünftigem HDR für 400-450€, kann dann von mir aus au 60Hz sein
Hab grad nomma zwei mal gebencht und hat sich mit SAM net wirklich was an den GPU Punkten getan. CPU Punkte gingen um 600 hoch aber mehr net, komme net über 2.5GHz und 21K Punkte hinaus. Aber ist au vollkommen ok für das undervolting und dem OC von fast mehr als 200MHz im Turbo bin ich mehr als zufrieden per Wattman. Hab hier schon schlimmere Ergebnisse mit einer 6800/6900XT gesehen, die net mal über 20k hinaus kamen und bei 1.1v dicht machten.
mit dem MPT würde ich mich nochmal auseinandersetzten. Hatte anfangs auch Bedenken aber ist wirklich kein Hexenwerk und mit den paar relevanten Stellschrauben machst du auch Nichts kaputt und ist Alles auch reversibel.
Fahre seit längerem ein leises Profil was sich als stable incl. TS2 bewährt hat. Nachwievor heizen Division2 ,CP und der MSFS der Karte am meisten ein wo das PPT-Limit voll ausgeschöpft wird und die Leistung gebraucht wird. Hotspot liegt bei max.85 mit diesen Einstellungen.
@Tornavida kommst aber au net über 21k Punkte hinaus ?, denke das ist schon soweit ok bei mir über Wattman mit knapp 21k. Der Verbrauch der Karte liegt im Schnitt laut MSI AB bei ca. 220W mit 1060mv, Ausnahmen sind da nur Titel wie RDRnline oder BF2042 wo die Karte dann auch auf 2.5GHz boostet und bei etwa 280-300W liegt.
Ergänzung ()
würde halt MPT nur nutzen wenn ich nen noch gleichen/höheren Takt hinbekomme, bei selbigem oder weniger Stromverbrauch.
21K ist für die 235Watt asic aber auch normal. (mit DS=off und fclk>>1940 machbar)
btw.
Duvar hatte bei dem 23,8k-Run mal in Richtung 400W asic aufgedreht.
(im Post oben, gings eigentlich nur um die Frage, ob sein 3600@fast Ram dann limitiert)
Das will ich ja gar net erreichen, wenn möglich sogar noch weniger verbrauchen wie jetzt und am liebsten dauerhaft zwischen 200-250W, wie zuvor bei meiner Vega64, liegen. Aber da tut sich net wirklich mehr was, sobald ich unter 1050mv und weniger als 2300MHz gehe, schmiert mir TS und alles andere ab.
Daher passt das schon so, auch aufgrund weil kommende Games net wirklich weniger leistungshungrig werden und ich noch früh genug die details auf medium-high schieben muss um in 4K meine 60+ FPS raus zubekommen.
Damit hab ich mich noch gar net mit beschäftigt, DSR oder ? bzw. FSR macht doch nix anderes als wie die native Auflösung senken, wenn das Game dies unterstützt. Aber ist auch ok soweit, wie gesagt wenn das ein oder andere Game mal über 220W im Schnitt geht, isses au noch in Ordnung.
Könnte dann ja au noch die Details zwecks Verbrauch senken. Aber bisher ist da keine wirkliche Not wegen den 30-50W mehr, außer die Strompreise sprengen dieses Jahr noch die 50c/kwh für Bestandskunden ...
Ist ja klar, das "momentan" Deine XT noch net so schnell limitiert wie meine nonXT.
(bei mir hats halt schon geholfen)
mal noch ein Bsp von nem YTer für 1800p+FSR-ultra
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
hab mir im Netz auch schon etliche Spiele im FSR/nativ Modus Vergleich angeschaut und man sieht da ja kaum oder gar keinen Unterschied. Vor allem achtet man beim spielen eh net genau auf die Details und bin ganz froh das dies in Zukunft, wenn es unterstützt wird, dann au nomma das aufrüsten um einige Monate, und vielleicht dann auch bis zur nächsten GPU Generation Release, hinauszögern kann.
Ergänzung ()
@GerryB hatte ich jetzt gar net drauf geachtet gehabt welche GPU du verbaut hast Gerry und war kein Seitenhieb an dich. Dachte du hättest au ne 6800XT bzw. gar ne 6900XT drinne.
Ergänzung ()
das ist nice mit FSR und knapp 45FPS in 4K mit RT, aber auf RT lege ich solang die Leistung jenseits der 60FPS net gegeben ist, keinen wirklichen Wert, so viel besser sehen Games mit RT m.M.n. au net aus das es sich jetzt auf biegen und brechen lohnen würde es zu aktivieren, da nehme ich stabile FPS um die 60 eher mit als die Candy Eye Effekte