Test Gaming-Benchmarks: 12900K, 12700K & 12600K vs. 11900K und Ryzen 9 5950X

wenn man den12900K auf
a) PL1=PL2=241W
b) PL1=PL2=125W
beschränkt, wie hoch taktet er dann eigentlich bei sowas wie prime95 ?
der 5950x liegt ja (142W PPT) dann bei ca. 3.8Ghz
 
t3chn0 schrieb:
Wie soll ich das für Dich simulieren? Ich habe mehr E-Cores die ich nicht deaktiviert bekomme (glaube ich).
Schade....Wie gut skaliert denn der Alder Lake mit der TDP? Also gerade bei 45W und dem PTT vom 5600X?
 
Habe ich doch bis auf 15W runter alles geposted ^^. Die Kiste geht schon übel ab für eine Desktop CPU.
 
Okay, ich bin blind... Ich hab nichts gefunden
 
t3chn0 schrieb:
Aber Du willst mich doch jetzt veräppeln oder? =D

Du bist scheinbar genau die Zielgruppe für diesen Schwachsinn, sorry.

Für Dich mag es alltagstauglicher sein. Defakto kann man so KEINE CPU testen, denn er ist im GPU Limit. Die 10 FPS Unterschied hier kommen NICHT vom DDR5 RAM, sondern von vollkommen unterschiedlichen Testszenarien. Deshalb wirkt es so als würde es am RAM liegen.

Im GPU Limit kann der RAM noch so schnell sein, es limitiert die GPU und nicht der RAM. Aber wie man sieht glauben dass die Leute und trällern das raus. Poah...ich bin immer relaxed aber nee.

Und rein zufällig zocke ich in 4K mit dieser Hardware....
Ergänzung ()

@Rockstar85

Wie soll ich das für Dich simulieren? Ich habe mehr E-Cores die ich nicht deaktiviert bekomme (glaube ich).
Ich meine es vollkommen ernst, deshalb würde ich mir auch eine ernste Antwort von dir wünschen. Kann ja gut sein, dass ich etwas übersehen habe oder nicht genau verstanden habe, was jetzt genau dein Problem mit dem Video ist.

1. In dem Video steht als Überschrift DDR5 vs DDR4 und nicht CPU Test 12900K, in dem Video wird der Unterschied an Performance zwischen DDR5 und DDR4 genau in diesem Setting, mit ansonsten unveränderter Hardware und selben Testszenario veranschaulicht. Darüber hinaus meine ich mich zu erinnern, das GTAV gut mit schnelleren Ram skaliert bzw davon profitiert, aber da kann ich mich jetzt auch irren, hab nur gerade keine Lust alte Benches dazu rausforsten zu müssen.

2. Wenn du allerdings sagst die Ergebnisse im Video können in der Form unmöglich richtig sein, da du die selbe Hardware zum Testen hast, wäre es doch schön, wenn du es durch eigenes Testen kurz belegen könntest oder deine Schlussfolgerung genauer erklären könntest.

3. Welches unterschiedliche Testszenario meinst du denn konkret bitte? Es wurde doch genau der selbe Spielabschnitt gebencht!

4. Der Uploader Mike Benchmark hat übrigens fast 100 verschiedene selbsterstellte Bechmark Videos auf seinem Kanal und wenn du da mal in andere Videos reinschaust, sieht man das die gemessenen Ergebnisse sehr realitätstreu sind und sich mit den Benchmark Ergebnissen von seriösen Webseiten decken. Deshalb ist stark davon auszugehen das der Mann sein Handwerk versteht und es nicht in seiner Absicht sein kann, falsche Benchmarkergebnisse zu veröffentlichen, das würde ihm nur selbst schaden.

5. Wenn Computerbase schon mit einer RTX 2080Ti 90FPS in 4k erzielt, dann zweifle ich absolut nicht daran, das eine RTX 3080Ti mal eben 20-30 FPS mehr in dem Game schafft und dabei nicht voll ausgelastet wird. https://www.computerbase.de/artikel...abschnitt_ultra_hd_mit_oberklassegrafikkarten
 
Zuletzt bearbeitet:
randomdude87 schrieb:
2. Man sieht doch ganz klar auf dem Video das die RTX 3080Ti mit 63 Prozent GPU Auslastung nicht im Limit läuft,
Mein ehemaliger Dozent in der Mess- und Sensortechnik würde jetzt heulend aus dem Raum laufen. Schau dir das Video nochmal an und beachte die Einheiten.
 
  • Gefällt mir
Reaktionen: Rockstar85
Neubauten schrieb:
Mein ehemaliger Dozent in der Mess- und Sensortechnik würde jetzt heulend aus dem Raum laufen. Schau dir das Video nochmal an und beachte die Einheiten.
Ah lol my b das passiert wenn man sich das Video nachts nicht bei Youtube in gescheiter Auflösung anschaut, sondern hier die Wiedergabe einfach maximiert anschaut. Hab die Temps mit der GPU-Auslastung verwechselt, hatte deshalb ja extra geschrieben das es fragwürdig ist warum die GPU-Auslastung nur bei 63% liegt, aber dies man ja hin und wieder aufgrund von bst Faktoren zu lesen bekommt. Unabhängig davon halte ich aber trotzdem die ermittelten Ergebnisse im Video weiterhin für nicht unrealistisch, aufgrund der anderen von mir vorgebrachten Argumente. Ich werde aber meine vorherigen Post dahingehend editieren, dass ich den Teil mit dem von mir falsch gesehenen entferne, um nicht jeden der sich das Video und meinen Post anschaut extra zu verwirren.
 
Also diese undervolting Geschichte mit 45 oder 65W ist echt fantastisch, Danke für die Tests.
 
randomdude87 schrieb:
Ah lol my b das passiert wenn man sich das Video nachts nicht bei Youtube in gescheiter Auflösung anschaut, sondern hier die Wiedergabe einfach maximiert anschaut....
Leider sind die Ergebnisse unrealistisch, weil diese im GPU Limit liefen
Damit wir dies egalisieren braucht es 720p, damit eben die GPU nicht bei 99% läuft.. Ich kann das ebenso mit meiner 3060Ti und OCCP und einem 720p Test nachstellen..
Die CPU hat genug Leistung für 1080P und 1440p, weil eben ab 1440p die GPU Limitiert. Teste ich zB Stellaris, sieht das anders aus. Da dreht dann ein Alder Lake Kreise um meinen Zen2 und vermutlich wird dies auch ein RKL tun. Hier haste dann eben Games, wie im CPU Limit laufen...
 
  • Gefällt mir
Reaktionen: Klever
mit der Brechstange etwas schneller als AMD...dafür noch ein neues MB kaufe.... den Inteljünger freuts..
 
Haudr0ff schrieb:
mit der Brechstange etwas schneller als AMD...dafür noch ein neues MB kaufe.... den Inteljünger freuts..

Dafür reichte die Skylake Architektur ab 8 Kernen schon längst.
Gscheiden RAM dazu und Zen3 durfte nur wieder zuschaun. :stacheln:
 
Jan schrieb:
IMG_20211111_115135__01.jpg
IMG_20211111_115542__01.jpg
 
  • Gefällt mir
Reaktionen: gunmarine, iron-man, t3chn0 und eine weitere Person
Esenel schrieb:
Dafür reichte die Skylake Architektur ab 8 Kernen schon längst.
Gscheiden RAM dazu und Zen3 durfte nur wieder zuschaun. :stacheln:
Zen 3 mit genauso gescheitem RAM raucht die Skylake-Derivate normalerweise in der Pfeife
 
Denniss schrieb:
Zen 3 mit genauso gescheitem RAM raucht die Skylake-Derivate normalerweise in der Pfeife

Achjaaaa 😂😂😂😂 vllt nen 8700K wenn 8C gefordert wird aber selbst der kann mit nem Top IMC und geköpft einiges 😅
 
Die Arma3 Community:
Wann wird das endlich ein spielbares Spiel statt Geruckel. Es ist nun 8 Jahr alt und mit notwendigen Mods maximal 40 fps in kritischen Situation, also bitte Intel wir brauchen IPC, Single Core Zuwächse, 4K RAM bei CL14 und Gear 1 wieviel könnt Ihr uns geben?

Intel: Ja.

Ich glaube seit heute ist Arma3 endlich spielbar geworden. Es ist noch alles recht unoptimiert und es geht noch mehr, z.B. mit Dual Rank RAM.
Danke an @Ned Flanders für die starke Unterstützung beim Benchen. Da haben wir tatsächlich einen kleinen neuen Rekord hinbekommen. Und jetzt entspannt auf der Bank in die Abendsonne schauen :)
 

Anhänge

  • 20211112045134_1.jpg
    20211112045134_1.jpg
    375,8 KB · Aufrufe: 312
  • SYSTEM for A3 YAAB.png
    SYSTEM for A3 YAAB.png
    484,1 KB · Aufrufe: 322
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., Ned Flanders und Esenel
@OPUS-AMP

Wirklich nicht übel! Und jetzt: Kiste auseinanderbauen und auf DDR5 ummontieren. HopHop!

OPUS-AMP schrieb:
Ich glaube seit heute ist Arma3 endlich spielbar geworden.
Yo und im Game treffen wir uns dann alle bei 99% GPU Auslastung und 75FPS

Ich frag mich ja ernsthaft wir wir das vor 8 Jahren gespielt haben
 
ZeroStrat schrieb:
Hier, @DonL_ Raptor Lake quasi offziell bestätigt, weil in Linux Patches gesichtet.

https://twitter.com/phoronix/status/1459237348152127497

Anhang anzeigen 1145501
Warum schreibst du mir das und nicht Torsten?
Ich habe schleißlich nichts anderes getan, als auf seine Posts verwiesen und das einmal hier und einmal bei PCGH, in absolut neutraler Form.
Desweiteren ändert ein Treibereintag nichts an der von Torsten beschriebenen Tatsache, dass es von Intel zu Meteor Lake zahlreiche Informationen und Bestätigungen gibt, zu Raptor Lake aber rein gar nichts.
Das zu einer offiziellen Bestätitung zu erklären, ist deine reine subjektive Meinung/Spekulation und Behauptung.
Ohnehin ist es mit dem momentane Prozess völlig ausgeschlossen, mehr Kerne als ADL im Desktop zu präsentieren, ohne jegliches Powerbudget vollkommen zu sprengen, zu dieser Erkenntnis kann jeder Laie kommen und ich bin wahrhlich nicht davon überzeugt, das Intel im Sommer 2022 eine Intel 5 (original Intel 7nm) Massenproduktion überhaupt starten kann, in Intel 7 sehe kein Potential in 6-8 Monaten wesentlich mehr auf die Schippe zu legen.
 
Zuletzt bearbeitet:
Zurück
Oben