Dann geht man ins Bios und passt die Lüfterkurve so an, dass der Lüfter bei 80°C nicht auf 80% hochdreht.multiblitz schrieb:habe aber immer wieder Kommentare auf Geizhals.de gelesen, dass ... die Lüfter hochdrehen...80 Grad
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
- Ersteller Esenel
- Erstellt am
- Zum Test: RAM-OC-Benchmarks: Ryzen 7 5800X3D vs. Core i7-12700K und i9-12900K
- Registriert
- Nov. 2009
- Beiträge
- 6.519
Dies. Ich bin gerade perplex, dass das selbst in so einem Thema wie diesem schon wieder kommt.Zwirbelkatz schrieb:andererseits sei laut AMD die Boost-Zieltemperatur rund 90°C.
Die hohe Temperatur ist von AMD so gewollt. Dreht man die Kühlung hoch, dreht der Boost den Takt rauf und die Maximaltemperatur bleibt gleich. Das Spiel geht so lange weiter, bis eines der anderen Boost-Limits (PPT/TDC/EDC) anschlägt oder F_max erreicht ist.
Z
Zer0Strat
Gast
Doch, das ist korrekt.derin schrieb:Naja, so ist das nicht korrekt.
Die Ursache ist wahrscheinlich, dass AMD das Verlöten oder was anderes versemmelt hat.derin schrieb:a) Der 5800x3d wird wirklich sehr heiß, gerne zwischen 85 und fast 95°C
b) Die Ursache ist technikbedingt (V-Cache)
Doch, ich hatte zwei Samples, eines davon hat deutlich gethrottelt, siehe dazu auch der Twitch-Stream von Rawiioli. Außerdem kenne ich zig andere Beispiele von Usern auf Twitter. Ich sage das gleich, falls das hier geleugnet wird, bei Bedarf kann ich das alles raussuchen.derin schrieb:c) Es findet aber kein Throttling statt
Das stimmt, aber MT kann man halt nicht einfach unter den Tisch kehren.derin schrieb:d) Die hohe Temp wird meißt nur bei Multicore Workloads relevant, bei Gaming ist er meißt um die 60-75°C
Sie müssen die Produktion verbessern.derin schrieb:e) AMD ist sich dessen sehr bewusst und hat deswegen Modifikationen und Taktrate limitiert
- Registriert
- Feb. 2009
- Beiträge
- 3.093
DJMadMax schrieb:Es ist und bleibt praxisfern! Schlimmer noch, der geneigte Käufer denkt nun: "Uuuuuui, ich muss den 5800X3D mit ultraschnellem RAM kaufen, weil guck mal, wie schnell der da rendert"
Was ist in 1440p, wo der Käufer dann tatsächlich spielt - wohl auch mit hohen Grafikeinstellungen, wenn er die passende Grafikkarte hat?
Das verstehe ich nicht. In einem Online-Shooter wie Battlefield, wo man möglicherweise gar nicht mit hohen Grafikdetails spielen will, oder generell in E-Sports-Spielen, die durch alte Engines gerne mal ne gewisse Affinität für ST-Leistung haben, kann man auch in hohen Auflösungen rein CPU-Limitiert sein.
DJMadMax schrieb:Ich teste nichts fernab der Praxis und es ist und bleibt mir ein Rätsel, wieso man sich immer so selbst beweihräuchern muss, nur, damit man beim Test zweier Dinge auch tatsächlich einen Unterschied in den beiden Graphen hat.
Je nach Spiel kann man das sehr real auch in 1440p und höher erleben...?
DJMadMax schrieb:Wieso eigentlich 720p?
Vermutlich weil das die meisten Spiele direkt als Auflösung erlauben. Ich habe auch nichts dagegen, in noch niedrigeren Auflösungen zu testen.
DJMadMax schrieb:Sorry, ich muss mich über diese Verschwendung an Ressourcen (Zeit und Arbeit, die hier - wie in so viele weitere 720p-Tests hineingesteckt wurde) einfach nur aufregen, es ist und bleibt ein Trauerspiel.
Warum ist es keine verschwendete Mühe, in höheren Auflösungen in einer Mischung aus allen möglichen anderen Limitierungen zu messen?
Aus guten CPU- und Grafikkartentests kann man sich unter der Annahme, dass die Testszene ein Worst-Case-Szenario ist, die relevanten Infos für Zielhardware zusammensuchen.
DJMadMax schrieb:Genau das!
Vielleicht vorher den Beitrag lesen, als nur laut zu klatschen weil die Überschrift gefällt
chb@ schrieb:@Stanzlinger Abwärme, unnötiger Sockel jede Generation, shady Business tactics in Bezug auf Benchmarks (bewusstes falsch darstellen von Daten) und in Bezug auf Verträge damit AMD nicht verbaut oder gepushed wird? Wir haben ja gesehen wohin das führt und zwar stillstand. Ohne AMD Ryzen hattest du keine CPU der 10 von 13 Test gewinnt, da wir wohl irgendwo Skylake performance immer noch wären.
Nur mal um ein paar Gründe zu nennen. Der Laden bleibt erstmal von der Einkaufsliste bis sich da bisschen was geändert hat.
Vergleich doch dann auch mal Skylake mit dem 8700K mit nem i5 2700K, Stillstand würde ich das nicht nennen, denn auch ein 10700K ist immer noch skylake…der 6C war ja eh lange geplant….und da hat sich die Spieleleistung teilweise verdoppelt….die IPC vom 2500K ist einfach mies … Intel hat einfach 10 nm versemmelt, mehr oder weniger das was wir jetzt mit ADL haben kam 2 Jahre zu spät, ice lake sollte 2019 im Desktop launchen und 20 hätte man dann den Refresh gesehen, ergo in etwa das was ADL jetzt an ipc leistet….AMD sei Dank hat Intel jetzt die Effizienz entdeckt und hat das Big Little Prinzip raus gehauen…ich behaupte einfach mal, dass AMD ziemlich alt ausgesehen hätte wenn Icelake 2019 gekommen wäre…immerhin ist es jetzt spannend weil Intel es um 3 Jahre vergeigt hat 10nm im Desktop zu bringen
Zuletzt bearbeitet:
Steve2344
Lieutenant
- Registriert
- Dez. 2010
- Beiträge
- 730
Dann hast du noch keinen richtig leisen pc gehabtStanzlinger schrieb:Nein, Nulleinspeiser
Ergänzung ()
Wasserkühlung ist doch quasi lautlos
Was hat Solar und Akku mit Leistungsverschwendung zu tun?Stanzlinger schrieb:Da der Strom dank Solar und Akku mir egal ist und Intel in 10 von 13 Tests gewinnt - was spricht dann für AMD? Entweder ich will Leistung oder muss sparen.
Klimaschutz bedeutet ja nun mal nicht "ich hau alles raus, weil ich es selbst erzeuge", oder fährst du auch ein E-Auto und knallst mit >200 Sachen und somit abnormalem Verbrauch (wo sich ein Diesel schon wieder rechnet) über die Bahn?
...warum wohl fahren die meisten Elektroautos oder auch die Hybriden bis 140 km/h elektrisch, alles darüber ist nicht wirtschaftlich.
Bevor nun das Argument "Strom erzeuge ich selbst, kostet mich also nichts" wieder kommt, jede nicht verkaufte KWh bringt dir Verlust und damit kostet sie dich trotzdem etwas.
Eine Schande ist eher, dass unsere Anlagen gar nicht maximal ins Stromnetz einspeisen können und dürfen.
@Topic
Wer ein System im jetzt und hier sucht, der landet beim AMD 5800X3D, ausgereifte Plattform mit aktuellen Anschlüssen und Möglichkeiten.
Wer jetzt kein System braucht wartet gefälligst auf die Nachfolger von AMD.
Bereits an diesem Punkt sehe ich ein Problem denn gäbe es nur 1440p oder sogar 4K TestsNixdorf schrieb:Situation nach Erscheinen der RTX4090: Der Unterschied fällt nun etwas deutlicher auf, aber noch längst nicht so, dass man dafür die CPU tauschen müsste.
dann wäre doch ein 12400F laut gegenwärtigem Benchmark fast so schnell wie ein 12900KS
aber mit neuer Grafikkarte hat man auf einmal ein CPU Limit !? Das wäre doch auch sinnlos !
Warum schaut sich Jemand der vor hat in 1440p zu zocken denn überhaupt 720p Benchmarks an ?
Selbst wenn man sich 1440p Benchmarks anschaut dann fehlt bei den Balken die wichtigste Angabe
und zwar die eigentliche CPU Auslastung denn die sagt auch Etwas über die Zukunftssicherheit aus.
RTX3090 1440p 100FPS 12400F 80% CPU Auslastung
RTX3090 1440p 100FPS 12600K 60% CPU Auslastung
RTX3090 1440p 100FPS 12700K 50% CPU Auslastung
RTX3090 1440p 100FPS 12900K 40% CPU Auslastung
Z
Zer0Strat
Gast
Wenn der i7-8700K nicht diese alberne Begrenzung auf 4.3GHz allcore in Spielen hätte, dann wäre Coffee Lake fast 30% schneller als ein 7700K. Das ist vielen gar nicht bewusst, was Intel da für einen Sprung hingelegt hatte.gunmarine schrieb:Vergleich doch dann auch mal Skylake mit dem 8700K mit nem i5 2700K, Stillstand würde ich das nicht nennen,
N
naicorion
Gast
Selten so einen Unsinn gelesen. Genau wie das Argument mancher Miner, man würde Überschüsse aus Atom- oder Wasserwerken nutzen. Als ob man aus dieser Energie nichts Sinnvolleres machen könnteStanzlinger schrieb:Und mit Solar ist der Stromverbrauch eben kein Argument mehr gegen Intel, da der Strom ja da ist.
Solarenergie könnte ja auch eingespeist werden, also kostet der Strom eben auch Geld - Opportunitätskosten.
"Mein Onkel hat eine Tankstelle, daher ist es egal, ob die Kiste 10 oder 20 Liter braucht" - lol
- Registriert
- Juni 2017
- Beiträge
- 4.104
cm87 schrieb:auch in höheren Auflösungen befindet man sich immer noch oft im CPU-Limit - damit hat man die selbe bzw. sehr ähnliche Situation wie bei 720p - da macht OC und RAM OC einiges aus. Der Test selbst in 720p sollte einfach nur zeigen, was eben im absoluten CPU-Limit passiert und wie gesagt, kommt auch in 1440p oft genug vor - auch bei 4k kann das hin und wieder passieren. Schnelle Online Shooter sind da ein super Beispiel.
Anno 1800 oder CIV VI kann man mit den gleichen Settings auch in 4k so laufen lassen und kommt auf das selbe Ergebnis.
Linmoum schrieb:Curve Optimizer hätte man hier in dem Zusammenhang beim 5800X3D auch noch anführen können. Fehlt irgendwie.
Erhöht noch mal den Takt, bringt dadurch mehr Performance und senkt gleichzeitig Temperaturen und Verbrauch noch mal deutlich.
Der Takt des 3D ist auf 4450MHz limitiert.
Da kein Power oder Temp Limit vorlag, konnte sich die CPU jederzeit die maximal notwendige Leistung holen ohne eingebremst zu werden.
CO hätte nur dabei geholfen die CPU kühler und noch sparsamer zu machen.
chithanh schrieb:Was viele 720p-Verfechter übrigens gerne vergessen, ist dass bei teils mehreren hundert fps die dabei herauskommen können auch gerne mal Treiber- oder Betriebssystemlimits reinhauen. So hat die Aktivierung oder Deaktivierung von Hardwarevirtualisierung mitunter einen deutlichen Effekt. Man hat also zwar kein GPU-Limit mehr, aber dafür ein anderes Limit, und misst dann doch wieder Mist.
Bin ich voll bei dir.
Darum wurde versucht vorwiegend Spiele zu nehmen die noch in einem verhältnismäßigen Rahmen fallen.
Ist halt bei diesen schnellen CPUs nicht immer einfach nur Spiele mit max. 150 FPS zu finden ;-)
Hätte auch ein Doom mit 700 FPS oder ein Valorant mit über 1000 FPS dazu nehmen können, aber dann wären wir genau bei deinem Punkt.
Gortha schrieb:Waren die 1,55 Volt VDimm für die Settings bei 3800Mt/s wirklich notwendig für dein (AMD) Kit? Die Timings sind jetzt nicht wirklich auf Kante genäht für DDR3800 B-Dies, da ging noch etwas mehr, auch stabil.
Nein die Spannung ist dafür nicht nötig.
Das ist nur eine Bench Spannung mit der dieses Kit alles bis 4600 MHz mitmacht ;-)
Bei den Timings wäre mit viel Aufwand auch noch ein wenig mehr bei allen CPUs gegangen.
Aber die 1-2% hätten auch nichts mehr geändert.
dr_lupus_ schrieb:Und wieviel Watt ziehen die imTest verwendeten Grafikkarten?
Zwischen 51-360W je nach Game und Stelle.
Anno 1800 vs Division 2 z.B.
Zwirbelkatz schrieb:Was mich übrigens etwas irritiert ist, dass hier scheinbar bis zu 3 Personen auf Fragen antworten, jedoch nur 1 Person als Verfasser genannt wird.
Da Inhalte und Ergebnisse mit anderen Systemen dieser User auf Plausibilität gegentestet wurden.
Freiheraus schrieb:Das ganze Ding erscheint durch die Wahl der Titel, Szenen und Hardware gezielt etwas hingebogen bis ein merklicher Vorsprung für Alder Lake herauskommt. Der Bias war auch schon mal geringer zu spüren.
Du darfst mir gerne die Hardware und Spiele kaufen, die du getestet haben willst.
Sag ich nicht nein ;-)
frkazid schrieb:Danke @Esenel für den Test. Hast du zufälligerweise auch nen Bench mit 3800CL14 beim 5800X3D (wenn vlt. auch nicht stable)?
@Verangry Hat hierzu einige Messungen gemacht :-)
- Registriert
- März 2019
- Beiträge
- 2.172
@Esenel
3800CL14 nicht, da hab ich ein Boothole, 4000CL15 / 4200CL16 kann ich noch zeigen, aber hatte das ja auf Seite 4 schon angerissen.
Man könnte sicher komplett Stock Werte nachreichen, leider fehlt mir die im Test genutzte 3090, was die Werte dann wieder komplett unterschiedlich machen würde, bemessen an FPS, den gain nur durch den RAM kann ich damit allerdings darstellen.
3800CL14 nicht, da hab ich ein Boothole, 4000CL15 / 4200CL16 kann ich noch zeigen, aber hatte das ja auf Seite 4 schon angerissen.
Man könnte sicher komplett Stock Werte nachreichen, leider fehlt mir die im Test genutzte 3090, was die Werte dann wieder komplett unterschiedlich machen würde, bemessen an FPS, den gain nur durch den RAM kann ich damit allerdings darstellen.
Z
Zer0Strat
Gast
Du hast doch auch noch die Werte vom 12700K. Kannste einen schönen Skalierungsvergleich mit machen.Verangry schrieb:3800CL14 nicht, da hab ich ein Boothole, 4000CL15 / 4200CL16 kann ich noch zeigen, aber hatte das ja auf Seite 4 schon angerissen.
Ich verstehe das "modernere Plattform" Argument nicht. Der Ryzen 5800X3D ist eine Gaming CPU. Bis das Ding nicht mehr zum daddeln langt, ist die 13000er Serie (und damit auch der Sockel) für den Zweck garantiert auch obsolet. Was soll das also bringen?
technik_el
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 831
Den hab ich mir die Tage auch geholt. Man muss sagen, der ist echt Hammer schnell!SVΞN schrieb:
Ähnliche Themen
- Antworten
- 850
- Aufrufe
- 219.104