und jetzt haben wir es auch schon - in deinen Augen. Passt ja auch soweit, ist halt, wie immer, eine subjektive Wahrnehmung.Duvar schrieb:nur ist halt in meinen Augen Intel besser für Tuner.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
- Ersteller Esenel
- Erstellt am
- Zum Test: RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
Duvar
Lt. Commander
- Registriert
- Juli 2015
- Beiträge
- 1.037
Esenel hats doch selber geschrieben hier, dass am Ende nicht wirklich was übrig bleibt beim Effizienz-Duell. Das Ding ist halt du kannst den Takt beim Intel massiv runterfahren und dank stark optimiertem RAM ist man dennoch performant unterwegs, da geht der Verbrauch stark runter. Ich will euch doch nix, ja der 3D ist ein wenig effizienter im Endeffekt. Beides gute CPUs, nur für mich persönlich und diese Meinung muss niemand teilen, ist Intel alles in allem besser.
Ok @cm87 ist in deinen Augen die Intel CPU nicht besser für Tuner? Kannst ja mal deine Meinung zu den 2 Produkten sagen.
@Jaffech 30W ist etwas zu wenig für Intel, das ist eher 3D Gebiet.
Ok @cm87 ist in deinen Augen die Intel CPU nicht besser für Tuner? Kannst ja mal deine Meinung zu den 2 Produkten sagen.
@Jaffech 30W ist etwas zu wenig für Intel, das ist eher 3D Gebiet.
wen juckt meine Meinung? ist ja wieder nur eine subjektive Ansicht - wo bleibt da die Objektivität?Duvar schrieb:Ok @cm87 ist in deinen Augen die Intel CPU nicht besser für Tuner? Kannst ja mal deine Meinung zu den 2 Produkten sagen.
und unter "tuning" versteht die Masse auch unterschiedliche Dinge - daher gibt es hier kein absolut richtig oder falsch.
Duvar
Lt. Commander
- Registriert
- Juli 2015
- Beiträge
- 1.037
Hmm also für mich war das sinnig, denn für jmd der hier Mr. Ram OC ist und der Großteil seiner Posts übers Tuning handelt und so viel Zeit darein investiert, kann rein nach Logik nur Intel besser finden zwecks deutlich größerem Tuningpotential/spaß. Aber gut wenn du deine Meinung diesbezüglich nicht teilen willst, ist das natürlich auch ok.
- Registriert
- Dez. 2021
- Beiträge
- 311
Hö? Höre ich da "x3D ist effizienter?"Duvar schrieb:@Jaffech 30W ist etwas zu wenig für Intel, das ist eher 3D Gebiet.
Spaß, dann nimm von mir aus 40W oder 50W
Aber mir vorwerfen, ich würde dich in die ecke drängen und offense seinDuvar schrieb:Wieso darfst du keine Meinung haben bzw hier kundtun? XD Wie er sich dreht und wendet nur um nicht zu sagen das Intel am Ende besser ist XD
Capt.Flint
Cadet 2nd Year
- Registriert
- Sep. 2010
- Beiträge
- 20
Ja so ist das. Deshalb ist ein Spiele-Benchmark mit aktuellen Spielen immer ein Multi-Core Benchmark. Der sagt aus wie gut die Engine im Zusammenspiel mit der Plattform die Kerne nutzen kann. Single-Core sagt aus wie gut ein Kern ist, aber rein gar nichts darüber, wie gut das Zusammenspiel der gesamten CPU funktioniert. Manche Spiele skalieren bei 16 Kernen noch, manche machen bei 6 o. 8 Kernen dicht. Aber kein modernes Spiel läuft auf einem Kern, Deshalb ist der Single-Core Mark bedeutungslos. Ansonsten bräuchte man ja nur die Single-Core Leistung mit X Kerne zu multiplizieren. Das funktioniert so aber nicht.Nolag schrieb:Man kann aber auch nicht von Multi-Core Leistung sprechen, weil damit meist die Leistung der CPU unter Nutzung aller Threads gemeint ist.
PS: Seid lieber froh, das es endlich mal echte Performance-Sprünge bei den CPU's gab. Sonst hätte Intel uns noch 10 weitere Jahre mit 100 MHz Häppchen zum immer höheren Preis beglückt. Davon profitieren alle Käufer, egal ob ihr Favorit blau oder rot ist.
Zuletzt bearbeitet:
Sehe ich anders. Der Single-Core Wert ist nicht bedeutungslos. Er gibt immer noch einen gewissen Richtwert zum Vergleichen zwischen CPUs für Anwendungen die nicht alle Kerne bzw. die CPU nicht zu 100% auslasten. Man sieht wozu ein Kern im best case imstande ist. Je weniger Kerne genutzt werden desto wichtiger ist die Leistung des einzelne Kerns.Capt.Flint schrieb:Single-Core Mark bedeutungslos. Ansonsten bräuchte man ja nur die Single-Core Leistung mit X Kerne zu multiplizieren. Das funktioniert so aber nicht.
Der 12900K macht in Spielen eine Server CPU platt, da die einzelnen Kerne mehr Leistung haben. Die dürfen mehr schlucken und entsprechend höher takten. Da kann der Multi-Core Wert von der Server CPU auch um den Faktor 4 höher sein.
Man müsste mehrere Kombinationen testen und Werte für 2, 4, 6, 8,... Kerne ermitteln, aber dann ist die frage wo fängt man an und wo hört man auf.
F
floh667
Gast
Ich zitiere mich Mal selbst. Das ist besser als jeder 360 vs 390 fps Benchmark.floh667 schrieb:Hat noch jemand Planet coaster? Das ist auch eine ziemlich harte Nuss für CPUs, wenn man viele Parkbesucher hat.
Mein Park ~12.000 Besucher. Die rx6800 langweilt sich, während die Simulation läuft. Es ist auch absolut egal, wo man sich im Park befindet oder wie weit man rein oder raus zoomt, die Simulation benötigt immer gleich viel CPU Leistung, entsprechend bleiben die FPS konstant bei 16
Anhang anzeigen 1245608
Die Simulation limitiert die FPS in jeder beliebigen Auflösung und jedes bisschen plus an FPS ist auch wirklich ein Plus für das Spielerlebnis sowie eine Aussage über mehr Rechenleistung.
Capt.Flint
Cadet 2nd Year
- Registriert
- Sep. 2010
- Beiträge
- 20
Das hat auch keinerlei Aussagekraft. Eine Server-CPU ist dafür gebaut, Funktionen und Berechnungen mit höchster Datenintegrität in einem Maß parallel auszuführen, die ein Desktopprozessor gar nicht beherrscht und wird mit viel größeren Reserven (niedrigerer Takt, ECC-RAM Module) betrieben. Die OC-Xeons waren nicht ohne Grund lange ein Geheimtip. Ein F1 Auto wird beim Alltagstest im Großstadtverkehr auch nicht sonderlich gut abschneiden.Selber schrieb:Der 12900K macht in Spielen eine Server CPU platt, da die einzelnen Kerne mehr Leistung haben. Die dürfen mehr schlucken und entsprechend höher takten. Da kann der Multi-Core Wert von der Server CPU auch um den Faktor 4 höher sein.
Ich bleibe dabei, außer vielleicht in ganz speziellen Szenarien ist es völlig Wurst ob ein 12700K (der 12900K ist preislich eine völlig andere Liga) oder 5800X3d im Rechner steckt, da die Graka limitiert. Für AM4 Nutzer ist der X3D noch mal ein attraktives Update, alle anderen müssen eh extrem tiefer in die Tasche greifen. Da wäre es dann aber schlauer die 2 Monate auf AM5 oder Intel 13K (wenn sie es rechtzeitig schaffen) zu warten, da bei einem erforderlichen Sockel- / RAM- wechsel die CPU nur einen Teil der Anschaffungskosten ausmacht.
Zuletzt bearbeitet:
unspektakulaer
Cadet 4th Year
- Registriert
- Juli 2015
- Beiträge
- 76
Ich muss wohl mehr smileys benutzen. 😄Wubziz schrieb:Sarkasmus? Das was ich geschrieben habe ist fakt und konnte über mehrere Jahre nun so schon beobachtet werden.
Sogar der Autor des Tests hat mir darauf nen Like gegeben.
Ich glaube du solltest dich an deine eigene Nase fassen.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.956
Ich mag den 5800x3d eigentlich.
Aber der Preis passt mir nicht.
Dazu, dass einfach in manchen Games zu viel Abstand (zB Cyberpunk) herrscht.
Ich sag mal, wenn die eine CPU 1% Lows von 105 fps packt und die andere 115 - Ist mir das egal.
Aber wenn eine CPU zB 70 fps und die andere 90 packt, ist das schon ein Gamechanger für mich.
100 ist so die Marke, die ich knacken möchte.
Ab 90 fühlt sich alles smoother an (144hz) und die +10 auf die 100 sind einfach ein "Puffer".
Bin gespannt auf Ryzen 7000.
Da sollte wieder deutlich aufgemischt werden <3
Aber der Preis passt mir nicht.
Dazu, dass einfach in manchen Games zu viel Abstand (zB Cyberpunk) herrscht.
Ich sag mal, wenn die eine CPU 1% Lows von 105 fps packt und die andere 115 - Ist mir das egal.
Aber wenn eine CPU zB 70 fps und die andere 90 packt, ist das schon ein Gamechanger für mich.
100 ist so die Marke, die ich knacken möchte.
Ab 90 fühlt sich alles smoother an (144hz) und die +10 auf die 100 sind einfach ein "Puffer".
Bin gespannt auf Ryzen 7000.
Da sollte wieder deutlich aufgemischt werden <3
Ist da jemand zu jung für die Zeiten des Pentium 4?m4c1990 schrieb:Früher war es AMD mit der Stromverbrauch Brechstange...
Nun macht Intel so einen Unsinn...
Die Performancekrone wechselt zwischen beiden seit vielen Jahren genauso wie die Effizienzkrone. Gerade die Methode die letzten Stücke Performance aus einer Architektur zu quetschen in dem man einfach mehr Strom reindrückt ist zum Lebensende einer Architektur oft der Fall. Sozusagen eine Überbrückung der sonst zu stark abflachenden Performancekurve durch mehr Energiezufuhr die oft noch eine Weile hinausgezögert werden kann durch Reduktion der Fertigungstrukturbreite. Wobei der oben erwähnten Pentium 4 auch dadurch nicht gegenüber einem Athlon XP/64 (Später: Phenom) in den effizienten Bereich rutschte.
In diesem Bereich ist es ein ständiges auf und ab, das immerhin dadurch noch überschaubar bleibt, dass es nur wenige Konkurrenten gibt (CPUs: AMD vs. Intel im x86 Segment, GPUs: AMD vs. Nvidia im Profi und Gaming Segment [mir ist der jüngste Intelrelease bewusst, aber solange der nicht zumindest treibertechnisch auf halbwegs soliden Beinen steht rechne ich ihn hier nicht zu]).
Sicherlich gibt es nun Ärger, die Lager aller genannten Hersteller haben noch immer feste Jünger die jederzeit Willens sind ihre Augen vor der Realität zu verschließen um weiterhin einen Sieg ihrer Fraktion zu erkennen. -> Troll Euch! Ich hab in meiner Zeit auch schon auf falsche Pferde gesetzt und konnte diesem etwas gutes Abgewinnen
@Topic: Danke für den aufschlußreichen Test! Insbesondere als privat, "auf eigene Kosten" erstellte Übersicht gut aufbereitet und unabhängig von dem, was hier anscheinend oft gesagt wurde gemäß den Möglichkeiten neutral bewertet!
cruscz schrieb:Ich hab in meiner Zeit auch schon auf falsche Pferde gesetzt
Ich nicht, weil ich immer abgewartet, und Tests gelesen habe.
Ob die Pentium 1-Alternativen von Cyrix oder AMD, Geforce FX, Pentium 4, Phenom 1, oder Bulldozer - alle wurden schon durch Testberichte als Nieten entlarvt, und umschifft.
Hab ich Tomaten auf den Augen oder hab ich was überflogen, wo ist der Vergleich zu RAM OC vs ohne OC oder 08/15 DDR4 RAM 3200 CL 16.18.18.18.38 man will ja unterschied sehen zwischen normal und Premium teuren schnellen RAM und was es im Alltag bringt im normalen Gebrauch außerhalb von 720p Benchmarks wie viel Mehrwert hat man bei 1080p, 1440p oder 4K🤷🏼♂️
SonyFriend
Commander
- Registriert
- Jan. 2006
- Beiträge
- 2.145
In der Überschrift steht ja nur: RAM-OC Benchmark - und nicht Vergleich zum 0815-RAM, obschon ich mir den Vergleich natürlich auch gewünscht hätte.
Metallsonic
Banned
- Registriert
- Nov. 2018
- Beiträge
- 368
Das sehe ich anders, denn Watt = Leistung!Novasun schrieb:Das ist so nicht richtig. Energie sparen ist so oder so das intelligenteste was man machen kann. Denn die gesparte Energie kannst du dann für was anderes nutzen.
Es gibt aber auch Spiele, die ich nicht am PC
(i9 12900K) spiele, dafür habe ich einen Gaming Laptop!
Ähnliche Themen
- Antworten
- 850
- Aufrufe
- 219.016