News Intel Raptor Lake: Erstes Synthetic-Benchmark-Review des Intel Core i9-13900

Zer0Strat schrieb:
Nein, das einzige, was zählt, ist der Vergleich 5800X3D vs 12900KS. ^^ Dass ein 12700K mit realistischen Auflösungen im GPU-Limit 10-20W mehr zieht, ist Satire.
Wait..
Behauptest du nun, dass 720P Vergleiche egal sind, weil CPU Leistung egal ist?
Mich interessieren in einem CPU Test keine 1440p Werte, oder muss ICH dir echt erklären, warum man Spieletests im CPU Limit macht?
Packen wir das ganze mal auf ein Faktisches Fundament:
https://www.3dcenter.org/artikel/la...3d/launch-analyse-amd-ryzen-7-5800x3d-seite-2
Und dann wunderst du dich, dass man dich kritisiert? Was ist heute? Polemik Tag?

1655128015255.png


Ich hoffe ja das Raptor auch an der Effizienz arbeitet, aber ich verspreche mir erst mit Meteor wirkliche Verbesserungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EyBananaJoe, apollostigma, Starkstrom und 3 andere
@Rockstar85 Du machst die Welle und postest dann eine Metaanalyse mit 22W Differenz zwischen 5800X3D und 12700K im CPU-Limit?
 
  • Gefällt mir
Reaktionen: Rios und Katzerino88
Zer0Strat schrieb:

Wenn du behauptest
Ne, der 12700K ist mit schnellem DDR5 oder DDR4 in allem besser

dann solltest du auch hinzufügen, dass für dein Szenario die CPUs nicht Stock betrieben werden, sondern der 12700K übertaktet wird und für den 5800X undervolting betrieben wird. Ich glaube der Punkt irritiert viele an dieser Stelle.

Welche grundlegende Geschwindigkeit ist denn für dich "schneller DDR5 / DDR4"?
Davon profitiert der 12700K naturgemäß stark.
 
  • Gefällt mir
Reaktionen: DannyA4, Syrato und Rockstar85
nazgul77 schrieb:
dann solltest du auch hinzufügen, dass für dein Szenario die CPUs nicht Stock betrieben werden, sondern der 12700K übertaktet wird und für den 5800X undervolting betrieben wird. Ich glaube der Punkt irritiert viele an dieser Stelle.
Core OC ist aber gar nicht entscheidend dabei. Kann man auch lassen. Curve Optimizer verbessert übrigens den Boost des 5800X3D signifikant. Ich hätte jetzt gedacht, das wäre bekannt. So was dann "Underclocking" zu nennen, ist schon ein Schenkelklopfer. ^^
 
  • Gefällt mir
Reaktionen: Dome87 und Katzerino88
Matthias80 schrieb:
Was möchtest du den hören?
Dein Argument. Ist das heutzutage schon zu viel verlangt?
Matthias80 schrieb:
Schön das du anscheinend glaubst, das es Technisch unter Einsatz von immer mehr Power geht.
Wieso immer mehr Power? Immer mehr Die-Fläche. Wenn du doppelt so viele Kerne verbaust, taktest du eben niedriger. Wird deutlich schneller sein bei gleicher TDP. Was glaubst die wie das Server CPUs machen. Milan gibt's mit 64 Kerne. Verbrät aber nicht 560 Watt.
Warum macht Intel das nicht? Weil denen Performance pro Die-Fläche interessiert.

Matthias80 schrieb:
Nur wurde spekuliert das vielleicht mehr P-Cores kommen. Puste Kuchen.
Wer hat das denn spekuliert? Wie Raptor Lake aussieht ist schon seit über einem Jahr bekannt.
 
Zer0Strat schrieb:
Zen 4 ist meh, bringt nur single Digit IPC und muss die Taktkeule auspacken.
Es ist letztendlich eine simple Desginentscheidung.
Man hätte sicherlich deutlich mehr IPC rausholen können, wenn man mehr an der Architektur gefeilt hätte. Dafür hätte man dann aber im Gegenzug höchstwahrscheinlich die Takraten nicht so hoch bekommen.

Also konnte man sich entscheiden entweder die Vorteile des 5nm Prozess voll in höhere Taktraten zu stecken, oder sich mehr auf die IPC zu konzentrieren.

Da mit Zen5 sowieso eine größere Änderung der Architektur ansteht, war es wohl einfach naheliegender, in der Hinsicht nicht so viel in den Sprung von Zen3 auf Zen4 zu stecken, da man mit dem Prozesssprung selbst schon genug raus bekommt und auch die V-Cache Varianten später nachschieben kann..
 
  • Gefällt mir
Reaktionen: apollostigma und DannyA4
Katzerino88 schrieb:
Ja, das ganze ist ziemlich nach hinten losgegangen. Erst mussten die Fans die Erhöhung der Leistungsaufnahme auf 230 Watt schlucken, weil man, um mit Intel mithalten zu können die Taktbrechstange auspackt, da muss man natürlich frühe Leistungswerte von Engineering Samples ohne Beachtung der Spezifikationen maximal möglich kleinreden, ohne zu wissen, was das letztendlich alles Gutes für den Markt und deren Kunden bringen würde.
AMD hatte immerhin noch den 5950X gegen Alder Lake und konnte mit einer besseren Effizienz überzeugen. Alles das fällt weg mit Raptor Lake. AMD muss heftig die Taktpeitsche schwingen. Ich möchte nicht wissen, was so ein 7950X mit 5.5GHz zieht in Spielen. Bin gespannt, ob dann auch der Begriff Schleuder oder Brechstange fällt.

Aber hey, sie könnnen ja über den Preis kommen, wenn Raptor Lake in allen Bereich (teils leicht) stärker ist. Und wenn das nicht kommt, dann kommt wieder die Plattformkeule mit "drölfzig" Generationen Support. :D

Taxxor schrieb:
Es ist letztendlich eine simple Desginentscheidung.
Man hätte sicherlich deutlich mehr IPC rausholen können, wenn man mehr an der Architektur gefeilt hätte. Dafür hätte man dann aber im Gegenzug höchstwahrscheinlich die Takraten nicht so hoch bekommen.
Wenn sie gekonnt hätten, hätten sie die IPC bevorzugt, wegen der besseren Effizienz.
 
Zuletzt bearbeitet von einem Moderator:
Rockstar85 schrieb:
Muss ich hier nun echt die Grundlagen der Thermik rausholen? Es wird echt nicht besser.
Nein besser nicht. Du kennst ja nicht mal.den Unterschied zwischen Thermik und Thermodynamik)?
 
  • Gefällt mir
Reaktionen: hahaqp, CM286 und Zer0Strat
Wenn Intel dann erst mal den 14900 als Nachfolger im Chiplet Design auspackt ,dann ist es soweit ! AMD wird auf ewig wieder die Nummer 2 im Performance Racing sein ! :heuldoch:
 
  • Gefällt mir
Reaktionen: DannyA4
BxBender schrieb:
Schon blöd, wenn man als weltgrößter Anbieter keine effizienten Prozessoren mit ordentlich Leistung entwickeln kann oder will.
So ein Ryzen 5800X3D oder 5700X ist und bleibt wohl vorerst die beste Wahl, wenn man z.B. als Spieler mit 8 großen Kernen liebäugelt, alternativ für Anwendungen einen protzigen 12 oder 16 Kerner mit ebenfalls geringerer Leistungsaufnahme.
Intel scheint es nicht verstanden zu haben, dass es nicht reicht von Effizienz zu reden, man muss es dann auch einfach mal machen.
Mal den 700€ 3D Prozessor außen vor, aber Alder Lake ist bei 1080p-1440p Spielen effizienter als der normale 5800X =>

E4btj6J[1].png


https://www.igorslab.de/en/intel-co...ng-in-really-fast-and-really-frugal-part-1/9/

CInebench Wattmessungen taugen nicht sehr viel für Spiele PC's als Entscheidungsgrundlage, aber für ein Brand Meme ist es sehr praktisch, sorgt ja auch für mehr Klicks bei Vergleichen.

Der 5800X3D ist schon effizient(er) man spielt aber nahe an 90°C CPU temperature (Wattverbrauch und CPU Dichte sind halt zwei verschiedene Dinge) und bei 1-2 Spielen, einer davon ein Simulator (MSFS) den man eh bei 30-40fps spielt, ist es der Benchmark Champion.

Nur zu blöd, dass man beim MSFS auch mal gerne VR haben möchte und VR mit den USB Problemen mit ZEN3 nun nicht so geil ist.

Der 5800X3D ist damit beim Spiel, dass am meisten von dem größeren Cache profitiert (mangels echter DX12 multi-core CPU support => kommt erst ende des Jahres) im Grunde nicht mal die erste Wahl, weil damit USB Hardwareprobleme kommen die man mit Joystick, VR-Headset und co. nicht haben möchte.

Ein Papiertiger den Gamer eher nicht kaufen oder kaufen und bereuen.
 
Naja in GPU Limit ist das auch keine Leistung..
Aber CPU Tests im GPU Limit sind halt Blödsinn..
 
  • Gefällt mir
Reaktionen: apollostigma
bensen schrieb:
User hier im forum...

bensen schrieb:
Warum macht Intel das nicht? Weil denen Performance pro Die-Fläche interessiert.
AMD im Desktop doch genauso.
Nur im serverbereich ist vieles egal Hauptsache Leistung. Da ist aber weniger Singlecore Leistung entscheidend.
Im Serverbereich hat AMD sowieso die Nase vorn.
Intel hat halt im Desktopbereich durch die Singlecore Leistung die Nase vorn. Gerade in Spielen noch oft entscheidend. Die pseudo E-Cores taugen für cinebench, für viel mehr eigentlich nicht...
Wenn mehr P-cores dann nur über den Weg mehr Power! Weil sonst würde man wie du sagst mit weniger takt, die Singlecore Krone evtl. nicht mehr halten.

Mfg
 
  • Gefällt mir
Reaktionen: DannyA4
Zer0Strat schrieb:
Aber hey, sie könnnen ja über den Preis kommen, wenn Raptor Lake in allen Bereich (teils leicht) stärker ist.
Ist schon noch etwas früh um die Preise zu verteilen. Wenn AMD die Taktrate hochprügelt, dann sind sie sicher nicht mehr effizient, aber verdammt schnell.
Davonziehen wird glaube ich gar keiner. Das wird ziemlich ausgeglichen mit jeweils anderen stärken und schwächen.
 
  • Gefällt mir
Reaktionen: JeanLuc Bizarre und DannyA4
Rockstar85 schrieb:
Naja in GPU Limit ist das auch keine Leistung..
Aber CPU Tests im GPU Limit sind halt Blödsinn..
Kommt drauf an was man testen möchte.
Ich finde für Tests zum Verbrauch sind sie schon zu gebrauchen, denn hier interessiert (zumindest mich) im Gegensatz zur Leistung nicht unbedingt das Maximum sondern beim Verbrauch interessiert micht eher, was es mit der jeweiligen CPU dann im Alltag bedeutet.

z.B. wenn 80% meiner Spiele im GPU Limit sind, dann interessiert mich die Performance natürlich, weil ich bei den verbleibenden 20% nicht so einbrechen möchte.

Aber beim Verbrauch schaue ich doch dann eher darauf, wie es 80% der Zeit aussieht und nehme dann ggf in Kauf, dass es bei diesen 20% ineffizienter ist. Aber es wäre halt blöd, wenn ich nur für diese 20% effizienter unterwegs wäre und dann überall wo ich im GPU Limit bin mehr verbrauche.
 
  • Gefällt mir
Reaktionen: DannyA4, Katzerino88 und bensen
conpain schrieb:
90°C CPU temperature
Und wie heiß ist ein Intel?
Ah so Moment. Heißer! 🔥

mfg
Ergänzung ()

Zer0Strat schrieb:
Oh mann geht dir da einer ab?
Ist doch nur gut wenn man nicht fast bei jeder gen alles neu kaufen muss.
Wie man das haten kann. Krass!
 
  • Gefällt mir
Reaktionen: apollostigma, DannyA4 und DaLexy
Matthias80 schrieb:
AMD im Desktop doch genauso.
Hat jetzt was mit Raptor Lake zu tun?
Matthias80 schrieb:
Nur im serverbereich ist vieles egal Hauptsache Leistung. Da ist aber weniger Singlecore Leistung entscheidend.
So pauschal gar nicht richtig und desweiteren auch völlig unerheblich.


Matthias80 schrieb:
Die pseudo E-Cores taugen für cinebench, für viel mehr eigentlich nicht...
Keine Ahnung was das soll. Die Kerne bringen es überall, wo man genug Threads auslasten kann. Durch die "pseudo E-Cores" ist ein 12600K schneller als ein 5800X.

Matthias80 schrieb:
Wenn mehr P-cores dann nur über den Weg mehr Power! Weil sonst würde man wie du sagst mit weniger takt, die Singlecore Krone evtl. nicht mehr halten.
Das ist ziemlicher Quatsch. Jede CPU taktet je nach Auslastung unterschiedlich hoch.
Nen 12900 Vanilla taktet im SC über 5 GHz. Unter Volllast takten die dann eben nur mit 3 GHz.
Jetzt könntest du den verdoppeln, also 16 P- und 32 E-Kerne und du hättest bei etwa 140W ne brachiale Performance.
Kostet halt ziemlich viel in der Herstellung.
 
Matthias80 schrieb:
Gut ist es auf jeden Fall nicht wenn amd zu sehr ins hintertreffen gerät... Dann würde intel den Preis noch mehr nach oben drehen. Will doch niemand oder?

Naja, das gilt eher für beide auf dem Markt. Sowohl eine Schwäche AMDs als auch eine Schwäche Intels treiben die Preise hoch. Schönes Beispiel ist ja die Ryzen Serie von den 1000ern bis zu den 5000ern. Der Ryzen 2700x kostete nach UVP 329$/319€, bei der 3000er Serie musste man schon 30€ mehr drauf legen, bei der 5000er Serie gab es sogar erstmal gar keine "günstigere" Version, sondern nur den 5800x mit 449€ UVP, welche auch wieder um 20€ angehoben wurde gegenüber dem Vorgänger.
Der Vorteil beim 2700x war wenigstens noch, dass er zwischenzeitlich im Abverkauf sehr sehr günstig (~150€) zu bekommen war. Der 3700x liegt/lag da im Schnitt 100€ höher.

Ist auch einerseits verständlich, AMD muss auch Geld verdienen und die Ryzens laufen gut. Es soll nur nicht heißen, dass Intel allein die Preise nach oben dreht.
 
  • Gefällt mir
Reaktionen: DannyA4
Taxxor schrieb:
Kommt drauf an was man testen möchte.
Ich finde für Tests zum Verbrauch sind sie schon zu gebrauchen, denn hier interessiert (zumindest mich) im Gegensatz zur Leistung nicht unbedingt das Maximum sondern beim Verbrauch interessiert micht eher, was es mit der jeweiligen CPU dann im Alltag bedeutet.
Dann verrate ich dir eines:
Dann reicht ein lumpiger 10100F für alles, denn die GPU Limitiert..
Sorry aber so langsam frag ich mich, ob hier im Forum mancher bewusst die Aussagen so dreht, wie es passt. Ich erinner mich noch an den letzten Zen2 Test, wo es hieß 720p ist das Maß der Dinge, weil man sieht wie viel Leistung die CPU in Zukunft hat und nun ist es unwichtig? Hauptsache in Teillast messen? Machen wir dann beim Auto auch weiter? Alle fahren 50km/h alle sind gleich schnell, wer braucht da Leistung?

Sorry @Taxxor aber DAS kannst du unmöglich ernst meinen und das führt jegliche Tests ad absurdum. Vllt sollte @Volker in Zukunft einfach stricken, dann muss er auch keine Zeit mehr investieren für Tests ^^
Aber nein, die testen bewusst mit fetten GPU um uns die Rohleistung der CPU zu zeigen.. Man kann doch nicht immer das Reglement anpassen, nur damit die eine Firma vorn ist?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: apollostigma
Zurück
Oben