Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
Könnte man ja alles mit einem Click auf "aufzeichnen" mit Capframe X machen und dann hat man alle Sensoren (CPU / GPU / Takt / Frametimes / Auslastung der CPU / GPU usw usw) aber ist ja "zu viel Arbeit" da 85 Sekunden bei der Aufzeichnung einzustellen und bei "Los" auf "aufzeichnen" zu drücken (Taste sogar selbst wählbar)
Es wäre halt gut zu sehen, was da wo und wie ausgelastet wird, wie die Verbräuche und Auslastungen der GPU und CPU sind und das alles mit nur einem Klick.
Verstehe halt nicht wieso man lieber Videos macht.
Damals mit Fraps und Excel oder aufwendig wie Igor (dafür aber meist genau) ist kompliziert, ja.
Aber CX macht das alles (wenn auch nicht 100% genau) und eben viel einfacher.
Das mit dem PPT ist halt genau was ich meine. Bei Intel steht da nichts von VDDIO_Mem. Ist halt die Frage was man jetzt eher vergleicht. Den Verbrauch der beiden Chiplets oder das PPT mit dem RAM Zeugs.
Hab auch nochmal mit CFX laufen lassen. Loggt halt schön die "realen" FPS und dröselt das nicht so krass auf.
Sind halt konstant die 35,8 bzw 36 W PPT. Die CPU Läuft da halt ins eingestellte Limit rein.
Was sind das denn für FPS in deiner Tabelle? CPU Render avg?
Finde die Tabelle schon echt spannend.
R7 5700G 311fps, 5900x 312/316/318Fps je nach GPU. Der R6 5600x ist mein Highlight.
Scheint ja ne super tabelle zu sein
Obvious Cough ist halt ein Psycho Übertakter, siehst ja wie oft der da vertreten ist und was der aus der HW rauskitzelt. Hat in der Regel auch kranke Kühlung.
Obvious Cough ist halt ein Psycho Übertakter, siehst ja wie oft der da vertreten ist und was der aus der HW rauskitzelt. Hat in der Regel auch kranke Kühlung.
Extrapoliert man die Werte des 12700K, welcher nicht erneut dafür gemessen wurde, würden wir bei etwa 110W für BF V und 77W für CP 2077.
In Anbetracht des Verbrauchs der Grafikkarte ist mMn. die Differenz zwischen dem 12700K und dem 5800X3D ziemlich belanglos.
Klang so als findest du den Score vom 5700G zu hoch verglichen mit den anderen von dir aufgelisteten CPUs.
Brauchst kein CFX für die Resultate. Demo runterladen 720p auf kleinste Settings stellen und los gehts. Seht ja andere könnens auch.
Kannste diese zahlen auch Photoshoppen?
Ich verstehe nicht was die Diskussion wieder soll, falls ihr nicht benchen wollt dann lasst es doch.
War nur mit dem Kollegen am schreiben der sein Resultat netterweise gepostet hat, da braucht ihr jetzt nicht wieder anfangen mit dem Krampf. Ist alles gut, bencht nicht.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wichtiger ist hier vielmehr, was will man mit den FPS einer Demo eines Spiels das mittlerweile einen Nachfolger hat denn machen?
Nur um zu schauen und zu zeigen, dass man mit kaum CPU Last mit maximal OC mehr FPS bekommt als der andere, mehr ist das nicht (ist ja nicht schlimm, das drumherum - die Infos wie, fehlen halt).
Richtige Benchmarks machen eben Redaktionen oder die Community, welche die Redaktionsbenchmarks nach Vorgaben nachstellen, gerne auch mit maximal OC usw, man will ja wissen was drin ist.
Aber eben mit Redaktioneller bzw plausibler Belegung.
Da kann ich nicht mithalten leider mit meinem heißen Eisen :-(
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Dein "heißes eisen" ist auch nur ein stinknormaler 12700k, mehr nicht
Den uralten TR 2990WX von 2018(!!!) mit seinen 250W schlägt Raptor Lake zwar, braucht dafür aber 350W laut Artikel. Das sind 30% Leistung plus für Raptor Lake bei 40% höherer Leistungsaufnahme. Spricht nicht für RPL.
Gegen den neueren TR3975WX (auch 32C/64T) von 2021 sieht RPL richtig alt aus. Der ist nämlich 7% schneller bei 280W vs. 350W. Um vom neuen TR5975WX (ebenfalls 32C/64T) wollen wir gar nicht reden, der ist 23% schneller bei ebenfalls 280W. Aber klar, ne 32C/64T CPU ist evtl. ein unfairer Gegner. Nun ist aber selbst der TR 5965WX (24C/48T) 2,5% schneller. Ebenfalls mit 280W gegenüber 350W.
Aber du hast recht, da kommt was übles auf uns zu: Und zwar eine Intel CPU die ineffizienter als eine 4 Jahre alte (1 Jahr alte bzw aktuelle, je nach Modell) AMD CPU ist bei CBR23
Dort wurde jedoch für beide CPUs der selbe RAM mit 3800MHz genommen und jeder hier weiß wohl, dass Intel deutlich schneller fahren kann beim RAM + wenn man Cache und CPU Takt hochzieht + E Cores ggf noch HT deaktiviert, sieht der 5800X3D kein Land mehr. Tuningpotential ist halt nicht so gut bei der AMD CPU.
Ist eher was für plug and play Leute XD
Dort wurde jedoch für beide CPUs der selbe RAM mit 3800MHz genommen und jeder hier weiß wohl, dass Intel deutlich schneller fahren kann beim RAM + wenn man Cache und CPU Takt hochzieht + E Cores ggf noch HT deaktiviert, sieht der 5800X3D kein Land mehr. Tuningpotential ist halt nicht so gut bei der AMD CPU.
Ist eher was für plug and play Leute XD
und wieder eine Pauschalisierung, welche fürn Hugo ist...
es gibt auch Spiele, wo ein Intel, auch völlig hochgezüchtet, kein Land gegen den x3d sieht - also was ist dann dort? Fehler beim Spiel?
Um wieder zum Test zurück zu kommen - da siehst auch du, dass der hochgezüchtete 12900k im Schnitt schneller ist als der x3d - da gibt es nichts zu rütteln. so um die 9%. Diese 9% werden im absoluten CPU-Limit mit im Schnitt 88% Mehrverbrauch gegenüber den x3d erreicht - also ja, Intel ist schneller und ja, der x3d ist viel effizienter - beides im CPU-Limit getestet. Nicht mehr und nicht weniger.
Richtig, nur den Intel kannst du auch extrem sparsam trimmen, da bleibt nicht mehr viel übrig vom drastischen Mehrverbrauch wenn man beide optimiert. Also am Ende bleibt es dabei wie ich es schon vor zig Posts gesagt hatte. Intel ist schneller in Games tuned vs tuned, kann auch extrem effizient und performant sein wenn man auf die letzten 3-400MHz beim OC verzichtet, ist in MC Anwendungen drückend überlegen, im Falle von 12700k deutlich günstiger. Verstehe nicht warum sich einige anscheinend hier angegriffen fühlen und in den defmode gehen wenn man hier was vergleicht oder mal die Fakten auf den Tisch legt. Ich sag ja nicht das 3D schlecht ist, ganz im Gegenteil, nur ist halt in meinen Augen Intel besser für Tuner.
Intel ist besser für tuner als der x3D, da gehe ich mit wie gesagt.
Schneller in Games max tuned vs max tuned ebenfalls.
Multicore überlegen: ja, aber der x3D wurde ausschließlich(!!!) für Gaming konzipiert. Ihn in MC antreten zu lassen und zu sagen "ist langsamer" ist genauso wie ihn gegen einen intel antreten zu lassen in einem spiel, welches extrem vom hohen L3 Cache profitiert um dann zu sagen "intel ist doof".
Für die Effizienz fehlen mir halt immernoch valide belege. (CFX... Mehrere Games... Keine demo von 2018... usw.) Da liegen noch keine Fakten auf dem Tisch.
Ich hätte eine idee: Mach doch wie @Esenel einen eigenen Post in welchem du deinen i7 gegen einen x3D antreten lässt mit einem 30W limit.