News Intel Core i9-13900K: Bei Minimum-FPS erheblich schneller als 12900KF

Doch, weil die CPU´s in dieser Klasse auf Effizienz getrimmt sind.

Welchen Wert willst du denn dagegen stellen? Die Renderzeit in Blender?
Klar ist die bei derlei CPU´s viel Länger und die schnellste CPU verbraucht im Verhältnis exorbitant mehr Strom. Den müsste man halt mal messen. Würde mch nicht wundern, wenn die LowPower CPU hier auch besser wäre (auf kosten der benötigten Zeit)
Gar nicht so banal das ganze.
 
@Karre In der Perf/Watt Kategorie gewinnt nicht zwangsweise die CPU mit dem kleinsten Verbrauch, dass stimmt so nicht.
 
random12345 schrieb:
Nee wenig Strom verbrauch bedeutet nicht das er zwangsweise Effizient läuft. Die Annahme ist nicht korrekt.
Natürlich nicht zwangsweise. Es ist aber so, dass die CPUs mit der niedrigsten TDP in einer Produktfamilie auch mit Abstand am effizientesten sind. Die Notebook CPUs mit der niedrigsten TDP wären dann immer die Gewinner.
 
mcsteph schrieb:
Traue keiner statistik die du nicht selbst gefälscht hast.
Der Benchmark ist kostenlos, es steht jedem frei ihn genau so nachzustellen, welchen Sinn hätte es hier bitte, Zahlen zu fälschen?
Ich hab es ja auch mit meinem 5800X/6800XT gemacht, sogar eine Auflösung niedriger wo man noch größere Unterschiede sehen müsste. Und bei mir kam das gleiche raus. Kein Unterschied trotz ~60% Taktdifferenz. Der Bench läuft komplett im GPU Limit, selbst eine Reduzierung auf 3GHz hat die FPS nicht verändert.

Außer in OpenGL, was aber die Schuld der AMD GPU ist, die mit OpenGL einfach nicht kann.
Mit einer Nvidia GPU ändert sich auch hier zwischen 3GHz und 4.7GHz nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Karan S'jet und Zer0Strat
[
Nolag schrieb:
Natürlich nicht zwangsweise. Es ist aber so, dass die CPUs mit der niedrigsten TDP in einer Produktfamilie auch mit Abstand am effizientesten sind. Die Notebook CPUs mit der niedrigsten TDP wären dann immer die Gewinner.
Nein. Die Rechenzeit pro Aufgabe nimmt zu. Das Thema ist Komplexer als TDP vergleichen.
 
Verak Drezzt schrieb:
Wären da nicht noch die 4-Ecores und weiteren 4-Threads, die sich in Zukunft vielleicht noch bezahlt machen.
Vielleicht aber auch nicht.

Die gute Performance/ Watt macht sich bei Zen sofort bezahlt, siehe Steam Deck wo die ganze APU auch auf 3 Watt gedrosselt liefert. Wo fehlen da little Cores? Mit Zen 4 wäre da wahrscheinlich noch deutlich mehr möglich.

Die Zukunft wird es zeigen.
 
Taxxor schrieb:
Es ist der gleiche Ansatz, den AMD seit Zen verfolgt und ich glaube nicht, dass man das bis heute durchgezogen hätte, wenn man nicht der Meinung ist, dass es effektiv ist.
In Games hatte AMD bis Zen3 und Rocket Lake deutliche Effizienz Probleme, weil man für den Boost auf die letzten +25MHz extrem viel mehr Energie braucht als für vielleicht 100MHz weniger. AMDs Boost war da weit vom Sweetspot weg. Intel macht das jetzt noch extremer und Raptor Lake braucht damit den Gerüchten zufolge in Spielen mal locker 100-160W CPU only. Nur um in Führung zu liegen. Das ist eigentlich genau das Gegenteil von AMDs Ansatz in den Notebooks. Und siehe da, Rembrandt kann da MT auf einmal fast mit Apple's M1/M2 mithalten. ST macht dann wieder der ineffizienter Boost einen Strich durch die Rechnung, der aber immerhin nicht so übertrieben als in den Desktop Modellen ausfällt.
Insofern: RTI war schon immer sinnloses Marketing Blabla. Bei AlderLake mit seinem extrem hohen Idle Verbrauch und massiv übertriebenen Boost noch viel mehr als früher. Aber selbst früher war das Konzept eigentlich fragwürdig, weil der Sweetspot eigentlich immer unter den Boost Taktraten lag und damit die Effizienz leidet (ich kenne zumindest keine CPU, die ihren Boost auf dem Sweetspot hatte).
Warum man das Thema durchzieht, ist einfach, weil man vor der Konkurrenz landen will, koste es was es wolle.
random12345 schrieb:
Nein. Die Rechenzeit pro Aufgabe nimmt zu. Das Thema ist Komplexer als TDP vergleichen.
Ja, das Thema ist komplex, aber in der Regel ist der Boost auf heutigen CPUs oft weit weg vom Sweetspot. Man spart ein paar Joule durch früheren Idle, verbraucht aber ein vielfaches, um die Zeit zu verkürzen. Insofern ist das dann eben oft nicht effizienter, weil der Boost zu hoch angesetzt wird.
Man sieht das sehr schön dann im Vergleich zu Apples M1/M2. Ein 6800U ist in MT (also bei niedrigem Takt) oft ähnlich effizient, in ST aber deutlich ineffizienter, eben wegen dem Boost. Für wenige hundert MHz braucht man da schnell mal 0,1V (oder mehr) mehr. Da die Spannung grob gesagt exponentiell in den Verbrauch eingeht, sollte jedem klar sein, dass das nicht effizient sein kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: random12345
random12345 schrieb:
Der Effizienzwert sollte der wichtigsten zu Beurteilende Part sein. Nur dort wird der Fortschritt von CPU‘s ersichtlich. Die Absolute Performance Werte sollten auf der letzten Seite eines Reviews Platz finden.

Das ist deine Meinung und für mich ist die Effizienz ebenfalls enorm wichtig und ein Prozessor wie der 5800X3D erfreut mich deutlich mehr als ein i7 12700(K), aber eben auch nur, weil meine Priorität eher beim Gaming liegt und big little mich nicht komplett überzeugen kann.

Aber wenn man eben Anwedungs- und Gamingleistung benötigt, ist der 5800X3D keine optimale CPU.

Mir ist aber im Endeffekt auch egal, auf welcher Seite die Effizienz erwähnt wird, da ich sowieso den gesamten Text lese und mir dann meine Meinung bilde. Und Effizienz-Fans können auch direkt auf die entsprechende Passage im Text klicken.

Es ist allerdings ein komplexes Thema und ziemlich abhängig von den getesteten Anwendungen und Spielen, in bestimmten Szenarien sind 12700K/5800X3D quasi identisch, in anderen zieht der 5800X3D mit über 50% davon, also selbst eine "gemittelte" Effizienz ist für den Endnutzer nicht immer aussagekräftig, weil er z.B. 90% MSFS2020 spielt.
 
  • Gefällt mir
Reaktionen: random12345
Wow, das Niveau hier kann teilweise echt nicht mehr tiefer sinken. Das ist wirklich traurig. :(

Ich befürchte, das wird ein böses Erwachen geben für die, die sich dem Intel-Hate leidenschaftlich hingeben und auf der Verbrauchswelle reiten. Ich meine klar, der 12900KS in Spielen, das ist ein schlechter Scherz und das PL von Alder Lake, um mit dem 5950X mithalten zu können in Anwendungen ist auch eher eine zweifelhafte Strategie. Das ändert aber nichts an der Tatsache, dass Alder Lake mit Anpassungen des PLs im BIOS sehr effizient betrieben werden kann. Damit ist dann letztlich möglich, den 5900X zu schlagen. Ich weiß, dass einigen letztere Aussage so gar nicht schmeckt. Ich meine, selbst wenn man Beweise liefert, wird das angezweifelt. Bitte spart euch die Kommentare dazu. Ich habe da echt kein Bock drauf.

@FormatC hat das bereits letztes Jahr geleakt. Der 13900K wird maximal (PL2) 253W verbrauchen. Peaks sind eine andere Geschichte! Nehmen wir mal an, dass der 7950X seine 230W PPT auch wirklich ausschöpfen wird. Es spricht einiges dafür: geringe IPC-Steigerung, sehr hoher Takt. Dann reden wir von 20W Differenz. Das sind nicht mal 10%. Wenn dann der 13900K über zig Anwendungen hinweg (siehe 3DCenter Metaanalyse) sogar am Ende leicht schneller sein sollte, was nicht unwahrscheinlich ist, dann wären die Topmodelle vergleichbar effizient, obwohl AMD mit TSMC 5nm einen enormen Prozessvorteil hat.

Die, die glauben, dass ein 7950X mit 5.5GHz in Spielen mit 80W auskommt, werden wahrscheinlich dumm aus der Wäsche kucken, wenn die ersten Verbrauchstests kommen. Ich wäre sehr vorsichtig damit, die Verbrauchskeule zu schwingen, wenn es um Intel geht.
 
  • Gefällt mir
Reaktionen: Katzerino88, Veitograf und Karan S'jet
Oberst08 schrieb:
Man spart ein paar Joule durch früheren Idle, verbraucht aber ein vielfaches, um die Zeit zu verkürzen. Insofern ist das dann eben oft nicht effizienter, weil der Boost zu hoch angesetzt wird.
Ach, die klassische Diskussion um "Race-to-Idle". Das ist immer so eine Sache und hängt massiv von den Zeiten und dem Verbrauch um diese Zeit zu erreichen ab.

Gerade mit den jetzigen Taktraten und die Verbräuche, die dahinter stehen, wird "Race-to-Idle" Adabsurdum geführt, weil für die letzten 100 MHz mehr Takt - und damit 2 - 3 % Mehr Leistung - oft überproportional viel Energie benötigt wird, wie du ja so schön schriebst: Die CPU wird außerhlb des Sweetspot betrieben.

Wenn eine Aufgabe bei 5,5 GHz bei 100 W 60 Sekunden benötigt und bei 5,0 GHz halt 66 Sekunden, dafür aber nur noch 60 W, dann kann man sich ausrechnen, wie viel Joule da wirklich "gesparrt" wurde (keine).

In dem Fall sind es ca. 6000 Joule (100 Ws = 100 Joule) gegen 3960 Joule (60 Ws = 60 Joule). Obwohl man also 6 Sekunden schneller war, benötigte man dennoch ca. 51 % mehr Energie dafür.

Selbst bei den kleinstteiligen Aufgaben steht hier oft im Weg, dass die Ersparnis von 10 % der Zeit oft ein massiver Mehrbedarf an Energie im Weg steht.

Es hat ja einen Grund, warum ARM Big.Little als Konzept aufgelegt hat und quasi fast alle Background-Tasks heute bei Android aber auch bei iOS und nun MacOS auf den Effizienzkernen ausgeführt werden.
 
  • Gefällt mir
Reaktionen: random12345 und Oberst08
High_Beam_Flash schrieb:
wieso wird die neue CPU mit 5.5 gebencht und die alte mit 4.9 Ghz ?
Weil das die Standardtakte der Chips waren.

Ui, ne.. Hatte einen anderen Vergleich im Kopf. Hier war der eine Satz Anwendungs-Tests mit Standardtakten 5,2 zu 5,5 GHz. Bei den Spiele-Tests sind die 4,9 GHz beim 12900 KF tatsächlich merkwürdig.
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
Wow, das Niveau hier kann teilweise echt nicht mehr tiefer sinken. Das ist wirklich traurig.
Gerade DU solltest dich mit Bemerkungen zum Niveau besser zurück halten, wenn man sich deine Beiträge in der letzten Zeit durch liest und wie du dich bei bestimmten Themen verhältst.

Während du bei AMD ständig den Teufel an die Wand malst, wie schlecht das alles doch wird und du mit keiner Kritik am sparen bist, gehst du bei Intel vollkommen unkritisch und mit einer Naivität an die Thematik. Auch alles weitere, was du hier an den Tag legst, kann man nur noch als Beiträge eines Fanboys abstempeln, weil du dich nicht mal um den Hauch von Sachlichkeit bemühst, sondern ständig nur das wiederkaust, was du ohnehin schon in zig Beiträgen geschrieben hast.

Wenn es dir wirklich um Niveau gehen würde, dann würdest du nicht ständig selbst das machen, was du meinst bei anderen meinst kritisieren zu können.

Zer0Strat schrieb:
Die, die glauben, dass ein 7950X mit 5.5GHz in Spielen mit 80W auskommt, werden wahrscheinlich dumm aus der Wäsche kucken, wenn die ersten Verbrauchstests kommen. Ich wäre sehr vorsichtig damit, die Verbrauchskeule zu schwingen, wenn es um Intel geht.
So einige, die hier diese Mehrverbrauch kritisieren, haben bereits auch den angekündigten Mehrverbrauch bei AMD mit der neuen TDP-Klasse von 170 W und die damit verbunden 232 W (oder war es mehr) kritisiert und es als die flasche Entwicklung deklariert.

In diesem Thema geht es um Intel, bei denen nun die ersten Tests verfügbar sind mit entsprechenden Ergebnissen, die man bewerten kann. Gibt es entsprechende Tests von Zen 4 schon? Also hier auf Computerbase gab es noch keinen und es gab hier auch noch keine News dazu.

Was du hier ablieferst gerade ist nicht nur kindlich, sondern kindisch. Hättest du dir den Verweis aufs Niveau verkniffen, dann hätte man über ein Teil deiner Formulierung hinweg sehen können. So überhöhst du dich, in dem du das Niveau der andere kritisierst und tanzt selbst scheinbar Limbo im Versuch zu prüfen, wie tief die Latte Niveau man hier noch anordnen kann.

Du wirst mit sehr hoher Wahrscheinlichkeit recht haben, dass auch AMD bei Zen 4 die 5,5 GHz nicht mit 80 W schaffen wird und der Weg, den AMD und Intel hier beschreiten, in dem sie einfach immer mehr Energie in ihre CPUs pumpen, damit sie irgendwie die Leistungskrone bekommen, ist mir einfach zu tiefst zu wider, gerade wenn man sich AlderLake mit den 12900 K ansieht und was der zu leisten im Stande ist, wenn man ihn auf 125 W einbremst.

Das Problem ist nur, dass INTEL und AMD sich für diesen Weg entschieden haben und JEDE Kritik in die Richtung ist angebracht und richtig, egal ob an Intel oder AMD.

Du wiederum benimmst dich echt nur noch wie ein klassicher Fanboy, der jedes mal in ein AMD Thema aufzeigen muss, wie schlecht alles bei AMD ist und in einem Intel-Thema jedes mal bei jeder Kritik darauf verwiesen muss, dass es bei AMD ja nicht besser sein wird.

Ehrlich, wir haben hier genug Fanboys, die diese Diskussionen schon teilweise anstrengend genug machen. Du hast das Wissen und du hast auch das Können, dass du dich nicht wie ein Fanboys aufführen musst, sondern weit aus differenzierter an das Thema heran gehen kannst und Beiträge mit deutlich mehr Nährwert schaffst, als das Toastbrot-Niveau, dass du aktuell oft ablieferst.
 
  • Gefällt mir
Reaktionen: feuerreal, peterX, Suteki und 9 andere
Corpus Delicti schrieb:
und die Anschaffungskosten für den 5800x3D sind nur noch böse.
Nicht, wenn Du schon ein AM4-System hast, weil Du kein neues Mobo und keinen neuen Speicher kaufen musst.
 
DevPandi schrieb:
So einige, die hier diese Mehrverbrauch kritisieren, haben bereits auch den angekündigten Mehrverbrauch bei AMD mit der neuen TDP-Klasse von 170 W und die damit verbunden 232 W (oder war es mehr) kritisiert und es als die flasche Entwicklung deklariert.
Ach komm, die Realität ist, dass Intel hart gehatet wird für den Verbrauch und AMD Fans immer noch glauben, dass sich die 230W PPT nur auf den Sockel beziehen. Dass AMD ebenfalls die Brechstange auspacken wird, wird hartnäckig geleugnet.

Dass ich Zen 4 so kritisiere hat seine Gründe: ich finde die neue Gen auf Basis der aktuellen Daten halt richtig kacke. Was soll ich da anderes sagen? Ich meine 2 Jahre keine neue Arch veröffentlicht und dann mit der TSMC 5nm Prozesskeule so ein 8-9% IPC Trauerspiel hinzulegen, ist halt enttäuschend. Da hilft auch kein AVX512. Für manche ist das vielleicht schocking jetzt, aber AMD ist für mich halt nicht heilig oder so oder Intel nicht the pure evil.... :D
 
  • Gefällt mir
Reaktionen: Katzerino88
Zer0Strat schrieb:
dass Alder Lake mit Anpassungen des PLs im BIOS sehr effizient betrieben werden kann. Damit ist dann letztlich möglich, den 5900X zu schlagen.
Das ist völlig ok, das eine Intel 7N (2022) mit größtmöglichen DIE der für Consumer hergestellt wird, als Resteverwertung, dann effizienter ist. Vor allem wenn man es mit dem 7NM TSMC und 12/14nm Globalfoundry 5900X vergleicht (2019).

Nein sorry da ziehe ich keinen Hut, ich erwarte das eine CPU 2022 das kann.
Da Sie es nur in bestimmten konstruierten Szenario kann, hilft es einfach nicht.

Leider stehen die Zeichen auf Power, nicht auf Effizienz.
AMD wird für das Topmodell, aus HALO Gründen, sicher genauso verfahren, mit angekündigten 170W TDP.
Sparen können Enthusiasten über BIOS/Programme ja immer. Wenigstens hat man die Wahl. Immerhin.

Das Rennen zwischen AMD und Intel könnte folgende Gen interessant werden, obwohl ich da eher auf AMD setzen würde, zu groß da der Sprung der noch kommt (DDR5, AVX512, neuer IO, TSMC N4/5, integrated graphics). Aber, es ist halt nur ne Vermutung, wissen tun es maximal Leute die beide NDAs unterschrieben haben. Bsp. der bei einem Video grinsende "der8auer" der natürlich derzeit keine Exemplare hat...^^

Zusatz:
Wird Intel zu gierig mit der Marge/Preis oder zu schnell, kommt die 3D Cache Keule von AMD.
Die wird aber echt nur kommen wenn es nötig wird, da durchaus auch nicht günstig, obwohl ich vor dem 5800X3D wirklich den Hut ziehe. Da er bezahlbar, konkurrenzfähig, effizient und wegweisend ist.
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Leider stehen die Zeichen auf Power, nicht auf Effizienz.
Ich denke, dass sowohl Raptor Lake und gerade Zen 4 mit vernünftigen Powerlimits verdammt effizient sein werden. Vielleicht liegt der Sweetspot von Zen 4 bei knapp über 4GHz. Wir werden sehen, aber der 5nm Prozess ist verdammt fortschrittlich. Das muss sich irgendwie rauskitzeln lassen.
 
Draco Nobilis schrieb:
Leider stehen die Zeichen auf Power, nicht auf Effizienz.
Zum Glück kann man darüber heutzutage ja mit entscheiden, indem man selber Power Limits vorgibt.

Das Flaggschiff im unlimitierten Betrieb ist bei Intel ja schon seit einigen Jahren Quatsch, auf den man sich nicht einlassen sollte. Mal sehen, inwiefern sich bei Zen 4 nun AMD mit dazu gesellt. Ich werde jedenfalls mein nächstes Upgrade nach Performance pro Watt bei sinnvollen Power Limits kaufen.
 
Zer0Strat schrieb:
Ich denke, dass sowohl Raptor Lake und gerade Zen 4 mit vernünftigen Powerlimits verdammt effizient sein werden.
Ja, aber nur wenn man selber Hand anlegt.
Ab Werk wird geboostet was das Zeug hält.
AMD und Intel haben schon bewiesen das im Teillastbereich oder im Sweetspot beide gut können.
Ich erwarte vor allem bei AMD, durch den neuen IO und 5N eine massive Steigerung der Effizienz außerhalb des max Turbos.
 
Zurück
Oben