News i5-13600K & i7-13700K (ES): Spiele-Benchmarks von Raptor Lake aufgetaucht

Rickmer schrieb:
Den Stromverbrauch bei 6GHz Allcore will ich vermutlich garnicht wissen.

Da wird die übertaktete GTX 1080 Ti aufs Jahr gesehen beim Stromverbrauch mehr ausmachen als die 5 Mal im Jahr, die der durchschnittliche 13900K/7950X Käufer für 2-3 Minuten Prime95 oder Cinebench laufen lässt :rolleyes:
 
mich würde interessieren was zieht das Teil bei 6 GHz aus der Steckdose
 
ZRUF schrieb:
Wir konzentrieren uns auf Effizienz und hätten damit sogar einen USP. Dummerweise läuft es aber so, dass auch in Reviews noch immer der längste Balken das Maß der Dinge ist...
Du sagst es, man testet primär die Leistung. Maximal sekundär die Leistungsaufnahme.
Das ist jetzt nicht unbedingt falsch, führt aber dazu.
und der "Markt" hat immer Recht, bzw. es verkauft sich halt nur das was Recht (oder Werbebudget) hat.
Solange wie man UC oder Eco Mode nutzen kann ist es ok. Selbst meine 2080 läuft oft nur auf 80% Powerlimit, es ist teilweise Irrsinn wie ineffizient die Hardware am Taktlimit wird. Ich will meine Ruhe am Rechner haben ohne erst eine teure Custom-Wakü einbauen zu müssen.

Gast12345 schrieb:
Server: 90% Intel, 10% AMD
Mobile: 78% Intel, 22% AMD
Desktop: 84% Intel, 16% AMD
Das ist der Grund wieso AMD im Gegensatz zu Intel noch massivst wachsen kann.
Gerade wenn man die Intel Schwäche Sieht. Natürlich hier nur x86.
AMD kann ja nur verkaufen was TSMC herstellt. Und natürlich versucht AMD sich voll im sehr lukrativen Server Segment breit zu machen. Dabei spielt der Fakt eine Rolle, das noch niemand dafür gefeuert wurde Intel zu verbauen.
ist so ne Redensart.

latiose88 schrieb:
Achso das heißt für Intel wird es unangenehm.
Intel Kann als Marktbeherrscher mit 80-90% Marktanteil nur verlieren.
Es gibt genau keine Möglichkeit für Intel zu altem Glanz zurück zu kommen.
Dazu müsste Intel wieder so winzige DIEs für Consumer herstellen, 20k$ Enterprise CPUs anbieten können und neue Märkte erschließen. Und zwar mit einer supergünstigen uralten max. Yield Fertigung. Nichts davon wird passieren.

Beg1 schrieb:
Klar sind das nur Leaks, aber die Folien von AMD waren schon recht offiziell und die dort angekündigte Steigerung zieht mir nich unbedingt die Schuhe aus, ähnlich wie bei Alder Lake zu Raptor Lake.
Ja mir auch nicht, abwarten. Sollte Intel gut werden sehen wir halt eher die 3D Cache Refreshs bei AMD.
Das nennt man dann auch Wettbewerb^^
Habe ja auch Gerüchte gehört das die 3D Ableger diesmal viel eher kommen.
Wobei AMD noch sehr klein am Markt ist, so das man kaum von ernsthaften Wettbewerb reden kann.
 
LamaMitHut schrieb:
@Gast12345 der Markt reagiert träge, mir ging es eher darum wer aktuell Technologieführer ist.
Unterm Strich für einen Konzern soviel Wert wie „Sieger der Herzen“ - nichts. Was zählt sind letztendlich die Zahlen.

Ob im Desktop, Server oder Mobile - die Speerspitze interessiert keinen, sondern die Produkte für die Masse und da schenken sich beide einfach zu wenig, als dass sich viel an der Zahlen ändern würde. Ob da 5W mehr beim Gaming oder 10W mehr Industriestrom gezogen werden oder das Notebook nun 15 Minuten länger läuft bei 8 Stunden Laufzeit interessiert die Masse einfach nicht.

Draco Nobilis schrieb:
Das ist der Grund wieso AMD im Gegensatz zu Intel noch massivst wachsen kann.
Gerade wenn man die Intel Schwäche Sieht. Natürlich hier nur x86.
Hoffentlich. Das man mit 90% nicht mehr viel Marktanteile gewinnen kann (und sollte) ist selbstverständlich.
 
Wenn ich die Tabelle mir so ansehe, muss ich feststellen dass der 12900k und das ES des 13900K gleichschnell sind. Die Frage die sich mir hier stellt ist: kommt die Mehrleistung nur durch Strom zustande? Weil wenn ja ist das ja eigentlich schon peinlich.

60D5D558-0B80-4693-9E41-0DE1915C3C6B.jpeg
 
  • Gefällt mir
Reaktionen: baizer, Paddinski, boypac007 und 8 andere
owned139 schrieb:
Gleiches gilt auch für Intel und vom Verbrauch sieht man in dieser News nichts. Also keine Ahnung, wie du auf deine Fantasiezahlen kommst.


Die IPC steigt, im gezeigten Benchmark, um 2,5% und der Takt steigt von 4,9 GHz auf 5,5 GHz im Boost. Das sind bei mir keine 20%.
Die 15% höhere Singlecoreleistung ist kein Mathe, sondern beruht auf den Folien von AMD:
https://www.computerbase.de/2022-05...n-4-soll-singe-core-ueber-15-prozent-zulegen/
Du sprichst doch vom Verbrauch auf Intel Level und gleichzeitig von 15% Singlecore Zuwachs.
Ist das nicht etwas gegensätzlich die erhöhte PPT anzuführen, der mit Single Core gar nichts zu tun hat?

Dann steht auf der Folie über 15% Zuwachs im Singlecore. Das dürfte recht tief gestabelt sein.
Und es sieht nach einigem mehr als 5.5 Ghz im Boost aus, zumindest in den Gerüchten....
Auf der selben Folie spricht AMD von 8-10% IPC Zuwachs, das mag jetzt nicht
jeden Bench betreffen aber mit 2.5 wirst im Schnitt nicht rechnen können.
Denn auch noch viel mehr Bandbreite des Rams steht neben dem Rest auf dem Papier.
 
Draco Nobilis schrieb:
Intel Kann als Marktbeherrscher mit 80-90% Marktanteil nur verlieren.
Es gibt genau keine Möglichkeit für Intel zu altem Glanz zurück zu kommen.
Dazu müsste Intel wieder so winzige DIEs für Consumer herstellen, 20k$ Enterprise CPUs anbieten können und neue Märkte erschließen. Und zwar mit einer supergünstigen uralten max. Yield Fertigung. Nichts davon wird passieren.
Zu „altem Glanz“ :lol:
Wann soll das gewesen sein?
Intel stellt doch Jahr für Jahr einen neuen Umsatzrekord auf:


7CA8D7FA-DC00-420A-8D83-E2E66B0553ED.png

Crifty schrieb:
Wenn ich die Tabelle mir so ansehe, muss ich feststellen dass der 12900k und das ES des 13900K gleichschnell sind. Die Frage die sich mir hier stellt ist: kommt die Mehrleistung nur durch Strom zustande? Weil wenn ja ist das ja eigentlich schon peinlich.

Anhang anzeigen 1245577
Warum? Wen soll diese zusätzliche kWh für 30 Cent alle paar Monate (!) auf der Stromrechnung interessieren? Bezahlst du deine Stromrechnung nicht selbst oder warum ist dir die geringe Auswirkung auf die Stromkosten nicht bewusst?
Lieber abends schauen, dass weniger Licht brennt oder auch nur einmal im Jahr zum günstigsten Zeitpunkt tanken - selbst das bringt mehr für den Geldbeutel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nomos und Samuelz
Mit 6 GHz lassen sie sich also nochmals besser takten als bislang, wow. Dafür brauchte es früher sehr kühle Temperaturen.
 
Crifty schrieb:
Wenn ich die Tabelle mir so ansehe, muss ich feststellen dass der 12900k und das ES des 13900K gleichschnell sind. Die Frage die sich mir hier stellt ist: kommt die Mehrleistung nur durch Strom zustande? Weil wenn ja ist das ja eigentlich schon peinlich.
Kommt drauf an. Ist das Cinebench? Falls ja, kann es sein, dass die vergrößerten Caches in CB nichts bringen, in Spielen aber schon.
 
Es wird jedenfalls spannend werden.

Da fällt mir gerade ein, wenn ich mir einen i9 13900K holen würde, da würde Gothic 3 endlich mal ruckelfrei laufen.:D

VG
 
Zuletzt bearbeitet:
suessi22 schrieb:
Moin moin,
laufen die neuen mit 8% mehr Takt? Liegt da der Gewinn nicht bei eher 1-2%?

Beim 13600k nur 4% mehr Takt. Der Gewinn ist immer ein Faktor aus mehreren Komponenten, die Taktfrequenz gehört dazu.

Zu den gaming Messungen muss man betonen, dass einige Spiele von der GPU limitiert werden, das verwässert die avg Messungen in der Summe. In einigen Spielen dagegen sieht man doch deutlich einen Effekt vom größeren L2 cache, der sich nicht nur mit 4 oder 8% mehr Takt erklären lassen. In Far Cry 6 legt der 13600k mehr als 20% zu bei 4% Taktgewinn. Bei den min fps ist der Unterschied noch größer. Zudem läuft DDR5 übertaktet bei ADL-S. In einem richtigen review wird Raptor Lake aus DDR5 einen Vorteil ziehen.

Denniss schrieb:
Tests von ES haben einen fragwürdigen Informationsgehalt. Die von QS wären wesentlich interessanter da ihre Spezifikationen nicht weit weg von späteren Servienversionen sein sollten.

Erstens sind das QS, sonst würde sie nicht 13600K und 13700k heißen, und zweitens sind QS auch ES Modelle. Aber natürlich ist das im Prinzip das gleiche, das sind alles Vorserienmodelle mit Vorserien Bios. Kann sein das spätere Biose die RAM Leistung ein wenig optimieren, was sich in gaming Benchmarks positiv auswirken kann.
 
SVΞN schrieb:
Während die 8 Performance-Kerne mit bis zu 6 GHz betrieben wurden, waren die 8 Effizienz-Kern beim schnellsten Benchmark-Durchlauf deaktiviert
HyperThreading war vermutlich ja auch deaktiviert, wie der Screenshot und das Ergebnis vermuten lässt.
 
  • Gefällt mir
Reaktionen: Dandy2k5
@Gast12345
Dass Intel inzwischen aber auch bei Teillast hinter AMD zurückhängt unterschlägst du aber bei deinem Stromkosten ist lächerlich Argument völlig. Schön die Rosinen picken und dann als allgemeingültige Wahrheit hinstellen. Bei Raptor Lake vs. Zen4 kann das auch wieder anders sein. Kommt ja auch drauf an, welcher Hersteller wo mehr Einsparpotential im Teillastbereich gefunden hat. Meine Glaskugel sagt da einfach: Warten wir auf Reviews... (ok, die ist wohl hinüber)

Und hey, es gibt hier mehr als genug User, denen Stromverbrauch wichtig ist. Aber mit einer Sache hast du völlig Recht. Größtenteils ist das mit den Stromkosten ein deutsches Problem. In anderen Ländern kommt sowas nur über die Ideologie Ressourcen sparen zu wollen.

Und mein Argument bei den Notebooks ist auch ohne die Stromkosten einzubeziehen valide. Hier hat man aufgrund der kompakten Bauweise einfach das Problem, dass die Kühlung bei steigendem Stromverbrauch immer komplizierter und ggf. auch lauter wird. Nicht umsonst kommen solche Stilblüten wie Laptops mit Wasserkühlung auf den Markt. In der Form nicht unbedingt etwas, worüber ich mich freue. Und das betrifft eben dummerweise beide CPU-Hersteller und genauso beide dGPU-Hersteller (intel zähle ich hier noch nicht, weil kaum verfügbar und eben noch nicht ausgereift). Einfach kein positive Entwicklung.

Dann kommt natürlich noch für alle Kunden gültig dazu. Kleinere Fläche durch feinere Nodes + höhere Verlustleistung bedeutet einen massiven Anstieg von W/mm², die gekühlt werden müssen. Ergo wird es eben auch im Desktop immer schwieriger eine geringe Temperatur bei geringer Lautstärke zu erreichen.

Also nicht alles was mit dem Stromverbrauch zu tun hat, hat nur was mit der nächsten Stromrechnung zu tun.
 
  • Gefällt mir
Reaktionen: Eorzorian
Tja soll das Standard Takt sein oder OC?
Aber alte OCler Herzen schlagen jetzt bestimmt wieder schneller... Aber wie ist wohl der Verbrauch... Hmmmn
 
Wie übel Intel einfach gegenüber den sehr guten P/L-AMD-CPUs eskaliert um weiterhin im Gespräch zu bleiben.
Über Leistung pro Watt schweigen sie sich aus.
 
Diese ganze Diskussion über den Verbrauch ist mehr Schein als sein.
Der durchschnittliche Verbrauch des 12900KS liegt bei 186W. Der 5800X3D liegt bei 70W.
Wenn wir also davon ausgehen, dass jemand 4h am Tag und 7 Tage die Woche spielt, sind das Stromkosten von 101€ beim 12900KS und 38€ beim 5800X3D bei 37,3 Cent/kWh im Jahr und 4h jeden Tag ist für die meisten definitiv zu hoch angesetzt.

Das macht im Jahr einen Unterschied von 63€. Wenn man sich nun mal verdeutlicht, was die Komponenten inkl. Grafikkarte in Summe kosten, ist die Ganze Diskussion über diese 63€ im Jahr absolut lachhaft und die wurde vor dem Ukrainekrieg schon geführt, als der Preis/kWh noch viel niedriger war.

Wenn ich jetzt den 5600 mit dem 12400 Vergleiche, sind das Peanuts und trotzdem pellt man sich krampfhaft einen auf die Effizienz des 5600.

Tausende Euros für CPU, Board, RAM, SSD, Graka, Kühlung etc. ausgeben, aber dann Tag ein Tag aus über 63€ im Jahr an Mehrkosten diskutieren und was für einen riesen Unterschied das ja macht...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Eorzorian, yummycandy und S.Kara
"dass es sich hierbei noch um Engineering Samples handelt, die darauf ausgelegt sind, dass OEM-Kunden damit ihre Systeme evaluieren können"
Das macht man mit QS und das sind auch Engineering Samples die identisch zu den prod.Units sind, nur eben das ES Bit gesetzt und kostenlos von Intel ausgegeben(unter NDA/Vertrag).
 
owned139 schrieb:
Diese ganze Diskussion über den Verbrauch ist mehr Schein als sein.
Der durchschnittliche Verbrauch des 12900KS liegt bei 186W. Der 5800X3D liegt bei 70W.
Wenn wir also davon ausgehen, dass jemand 4h am Tag und 7 Tage die Woche spielt, sind das Stromkosten von 101€ beim 12900KS und 38€ beim 5800X3D bei 37,3 Cent/kWh im Jahr und 4h jeden Tag ist für die meisten definitiv zu hoch angesetzt.

Das macht im Jahr einen Unterschied von 63€. Wenn man sich nun mal verdeutlicht, was die Komponenten inkl. Grafikkarte in Summe kosten, ist die Ganze Diskussion über diese 63€ im Jahr absolut lachhaft und die wurde vor dem Ukrainekrieg schon geführt, als der Preis/kWh noch viel niedriger war.

Wenn ich jetzt den 5600 mit dem 12400 Vergleiche, sind das Peanuts und trotzdem pellt man sich krampfhaft einen auf die Effizienz des 5600.

Tausende Euros für CPU, Board, RAM, SSD, Graka, Kühlung etc. ausgeben, aber dann Tag ein Tag aus über 63€ im Jahr an Mehrkosten diskutieren und was für einen riesen Unterschied das ja macht...
Beim Stromverbrauch ist das Argument eher dahin gehend relevant, dass einfach mehr Energie abgeführt werden muss. Also einfach mal deutlich mehr Hitze für eigentlich nichts.
 
Zurück
Oben