News Intel-Präsentation: Die Katze Raptor Lake ist aus dem Sack

Blad3runn3r schrieb:
Der Sieger wird bei 40W gekürt. Mehr sollte keine CPU verbraten dürfen.
Was für eine Scheuklappe....
Es gibt aber Leute, die wollen moderne Gamingsysteme und die Spiele genießen.

Einen historisch lahmen 40W Krüppel kannst Du Dir ja aus der Reliktkammer holen, aber für den Gamingbetrieb mit Top Settings freue ich mich über AMDs und Intels Performancefortschritte.
 
  • Gefällt mir
Reaktionen: ben12345
@FormatC: Wärst du so nett, kurz klarzustellen, ob die Verbrauchs-/Effizienzwerte der Ryzens in deinem ADL Test mit oder ohne PBO entstanden sind?

Im Artikel selber finde ich auf die Schnelle keine Infos dazu, aber dieser Beitrag von dir lässt mich zweifeln. Danke.
 
Laphonso schrieb:
Da musste ich 10 Seiten blättern, um einen Gleichgesinnten zu finden :D
Dito, Gaming Duell 7950x vs 13900K, dann entscheide ich, welche CPU meine 4090 befeuern wird.
ihr seid dann am nächsten blackout schuld :D huehuehue
 
  • Gefällt mir
Reaktionen: Laphonso
@Laphonso was für einen Monitor wird deine top Hardware, ohne Limit, denn befeuern?
 
Ich spiele auf einem 34 Zoll UWQHD Monitor. Das ist zwar unter 4K, aber 5 Mio Pixel brauchen Leistung und wollen hier geflutet werden :D
 
Laphonso schrieb:
Ich spiele auf einem 34 Zoll UWQHD Monitor. Das ist zwar unter 4K, aber 5 Mio Pixel brauchen Leistung und wollen hier geflutet werden :D
Modellbezeichnung würde mich echt interessieren.
 
  • Gefällt mir
Reaktionen: Laphonso
Syrato schrieb:
Modellbezeichnumg usw. würden mich echt interessieren.
Ergänzung ()


Modellbezeichnung würde mich echt interessieren.
Ach so, das ist der Alienware 3420DW
 
Ltcrusher schrieb:
@Benni1990 & @owned139 & @Bulletchief bei Computerbase gab es schon immer eine grobe Tendenz, aber nicht "pro AMD", sondern in die Richtung, wo es für Preisklasse X die beste Leistung gab.

Guckt euch mal die Zeit von 2011 bis 2016 an. Der Bulldozer wurde in keiner Weise schön geredet. Ich war auch ein Nutzer eines Xeon E3-1230v3, weil der hier sehr empfohlen wurde. Also CB ist kein reines AMD Fanboy Lager.
Die Tendenz gibt es wirklich.
Ltcrusher schrieb:
Wenn die Intel Arc 770 kommt, weniger Watt benötigt und am Ende stabile Treiber hat - holt ihr euch die oder dann doch eher eine neue RTX 4000 oder RX 7000, die dann mehr Strom fressen wird?
Sicherlich wird Alchemist höchstens marginal effizienter als RDNA2 und Ampere sein und in Punkto Effizienz nicht in Konkurrenz zu RDNA3 und Ada treten können.
TSMC N6 vs. N5P schließt letzteres einfach ziemlich aus; da hätten AMD und Nvidia schon beide zeitgleich hart failen müssen.
Ergänzung ()

owned139 schrieb:
Ja und wie viele? Die kannst du an einer Hand abzählen über 17+ Seiten hinweg. Hier findest du schon 6 auf der ersten Seite. Den überwiegenden Großteil hat der Verbrauch bei RYZEN 7000 nicht interessiert, aber in Intel Threads wird dauernd nur über den Verbrauch, den Klimawandel und die hohen Stromkosten philosphiert.
Auf der ersten Seite vom Centurionkommentarbereich findest du von neunzehn Kommentaren sieben, die ziemlich eindeutig darauf anspielen und achtzehn, die insgesamt enttäuscht sind, was sich durchaus auch als enttäuscht von der Leistungsaufnahme interpretieren lässt.
https://www.computerbase.de/forum/threads/amd-fx-9590-prozessor-im-test.1234054/
Das ist der wichtige historische Vergleichswert.
 
Zuletzt bearbeitet:
Nolag schrieb:
Man kann nicht oft genug erwähnen, dass Watt keine Verbrauchsangabe ist. Vielleicht sollte man das auch in den CPU Tests hier auf CB mal erklären.
Selbst wenn wir es korrekterweise "elektrische Leistungsaufnahme" nennen spielt es in der Diskussion kaum eine Rolle, denn die CPU läuft eine gewisse "Zeit" und da "verbraucht" die CPU trotdem mehr, entsprechend ihrer höheren Leistungsaufnahme ;-)

Ich bin eh dafür, dass CPUs auch mal mit ein paar definierten Workloads belastet werden (Renderings, Spielesequenzen) und dann der wirkliche Energiebedarf für einen gewissen Task feststeht und man sich nicht mehr an Wattangaben aufhängen muss.
 
  • Gefällt mir
Reaktionen: Unnu
CDLABSRadonP... schrieb:
Auf der ersten Seite vom Centurionkommentarbereich findest du von neunzehn Kommentaren sieben, die ziemlich eindeutig darauf anspielen und achtzehn, die insgesamt enttäuscht sind, was sich durchaus auch als enttäuscht von der Leistungsaufnahme interpretieren lässt.
https://www.computerbase.de/forum/threads/amd-fx-9590-prozessor-im-test.1234054/
Das ist der wichtige historische Vergleichswert.
Die FX CPUs waren auch beschissen, aber das kannst du nicht mit heute vergleichen. Damals wurden AMDs 8 Kern CPUs von 4 Kerner Intel nass gemacht und die AMD CPU hat dabei auch noch fast das doppelte Verbraucht.
Wie kannst du das mit dem hier vergleichen: https://www.igorslab.de/intel-core-...in-ganz-schnell-und-richtig-sparsam-teil-1/9/ ?

Intel und AMD lagen schon lange nicht mehr so nahe beieinander und dennoch wird so getan, als wären alle Intel CPUs 5000W Monster und AMD der Effizienzgott.

Im CB und PCGH Forum lautet der allgemeine Tenor, dass Intel Kernschrott und AMD der heilige Gral ist.
Bestes Beispiel hierfür sind die E-Kerne. Man liest immer wieder von Usern, welche noch nie ein Intelsystem mit E-Kernen zu Gesicht bekamen, dass sie nutzlos und reines Marketing wären. Jeder ADL Besitzer und jedes Review kommt zu einem anderen Fazit und dennoch wird der Müll weiter verbreitet.
Das Problem sind nicht die E-Kernen, sondern dass Intel draufsteht. Bei AMD muss man aufpassen, was man sagt, ansonsten kommen sofort zig User und zicken dich von der Seite an. Bei Intel wird nicht differenziert und jeder Nonsense, selbst wenn er unwahr ist, als Gegenargument genommen. Das ist keine Diskussion, sondern ein reiner Circlejerk.
 
  • Gefällt mir
Reaktionen: Innocience
Kloin schrieb:
Selbst wenn wir es korrekterweise "elektrische Leistungsaufnahme" nennen spielt es in der Diskussion kaum eine Rolle, denn die CPU läuft eine gewisse "Zeit" und da "verbraucht" die CPU trotdem mehr, entsprechend ihrer höheren Leistungsaufnahme ;-)
Es spielt sogar eine sehr große Rolle, weil ohne Bezugsgröße in einem Test, ist die Angabe der Leistungsaufnahme während eines Tests irreführend. Eine 6 W CPU kann bei einer Aufgabe ineffizienter sein als eine 65 W CPU: PerformanceEfficiencySuite/Ranking/CB_MT_Consumption.png
 
  • Gefällt mir
Reaktionen: Unnu, Innocience und owned139
Nolag schrieb:
Es spielt sogar eine sehr große Rolle, weil ohne Bezugsgröße in einem Test, ist die Angabe der Leistungsaufnahme während eines Tests irreführend. Eine 6 W CPU kann bei einer Aufgabe ineffizienter sein als eine 65 W CPU: PerformanceEfficiencySuite/Ranking/CB_MT_Consumption.png
Ja da bin ich bei dir, es müsste die aufgewandte el. Energie für einen Task ermittelt werden. Wie gesagt wenn die Dinger einfach Vollgas laufen würden (wovon ja die meisten Verbrauchsaufreger scheinbar ausgehen) spielts keine Rolle, das meinte ich mit dem ersten Absatz ;-)

Schöner Chart btw.
 
GUN2504 schrieb:
Ich verstehe das Festhalten an P/E von Intel mit der aktuellen Funktionalität der P-Cores/E-Cores nicht...
Und warum ein 8P/16E anstatt einem 16P/8E?
Als wenn die zusätzlichen 8 E-Cores bei 13900k den Leistungsschub gegenüber dem 13700k bringen würden (Außer dem max Boost Takt)...
Kurz gesagt:
Bei Intels Single-Chip CPUs ist mehr Chipfläche extrem -also wirklich extrem- teuer.
Darum haben sie die Mini-Cores ins Leben gerufen mit erheblich weniger Chipfläche (und Features).
Was nicht da ist, verbraucht trivialerweise auch nichts.
Darum wurde ein neuer Name schnell gefunden: E-Cores :D

Für Single-Chips sind sie Intels einzige Möglichkeit mit AMDs Corezahl und damit Anwendungsperformance mitzuhalten ohne dass die Kosten und Preise über alle Maßen ausufern.
Sie haben nur leider keine gute Gaming Performance :(

Nolag schrieb:
Man sollte die E-Cores nicht unterschätzen: Anandtech: CPU Benchmark Performance: E-Core
Der Artikel von Steve auf Techspot/HW Unboxed stellt die E-Cores übertrieben schlecht dar, weil die P-Cores dort mit HT/SMT betrieben werden. Am Ende schlagen aber dort trotzdem 4 E-Cores eines 12900K die 4C8T eines Ryzen 1800X im Durchschnitt über 7 Games.
Alle Zahlen neutral auswerten. Alle Randbedingungen einbeziehen!

  • 4 E-Cores 12900K von 2021 ca. Gleichstand vs. 4 Cores 1800X von 2017.
  • 2P/2E 12900K ca Gleichstand vs. 4C 10900K und 3800X
  • 4P 12900K schneller vs. 4C: 7% 12700K, 11% 5800X, 14% 12600K

Was glasklar folgt: Mehr E-Cores sind schlecht für Gamer !

Eine Entsprechung des 12700K von AMD wäre eine imaginäre
12C (8P/4E) AMD CPU der technisch ein 5800X + 4 abgespeckte 1800X Cores (kein SMT usw) ist .
Das ist nun einmal nicht im Sinne eines Gamers.
 
  • Gefällt mir
Reaktionen: Unnu, GUN2504 und Gsonz
up.whatever schrieb:
@FormatC: Wärst du so nett, kurz klarzustellen, ob die Verbrauchs-/Effizienzwerte der Ryzens in deinem ADL Test mit oder ohne PBO entstanden sind?

Im Artikel selber finde ich auf die Schnelle keine Infos dazu, aber dieser Beitrag von dir lässt mich zweifeln. Danke.

PBO2 heißt im Gaming nicht zwangsläufig eine höhere Leistungsaufnahme. Wer das pauschal denkt, hat den Mechanismus nicht verstanden. Ich nutze immer MSI's Interpretation von PBO Advanced (Power Limts off). Die ist nämlich SPARSAMER als PBO Off. Man darf halt keine Asus-Super-Duper-OC-Boards für sowas nutzen, die Übervolten meist extrem und haben eine komische Load Line.

1662708996387.png


Und selbst bei Volllast aller Kerne ist PBO Advanced ohne Power Limits mit dem richtigen Board eben NICHT gefräßiger

1662709163237.png


Die Resultate sind immer besser als komplett ohne, sowohl bei den Ergebnissen als auch bei der Effizienz. Aber wie geschrieben, es kommt auch viel aufs Motherboard an.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Enigma, xsodonx, Unnu und 4 andere
andi_sco schrieb:
Aber die E-Cores sind ja, in meinen Augen, eher für das OS und leichte Aufgaben gedacht.
Das wäre das big.Little Prinzip wie bei ARM.

Bei x86 sind die E-Cores dazu da mit wenig Flächenverbrauch bei Multicorelast viel zu reissen.
Und auch bei Multicorelast effizient was zu reissen.

Relativ nutzlos im Game.

Ein P-Core hat halt die Fläche von 4x E-Core.
Die E-Cores haben aber trotzdem eine IPC die knapp über Skylake/Kabylake/Coffelake liegt.
Was ja für die kleinen Cores extrem gut ist.

Aber speziell mega sparsam sind sie halt nicht.
 
Zuletzt bearbeitet:
Nolag schrieb:
Alternativ könnte ich mir auch gut eine 100W APU vorstellen. Wenn man bedenkt, dass eine Xbox Series S lediglich eine Leistungsaufnahme von ca. 75W bei den meisten Games hat, dann kommt man schon ins Grübeln, warum es solche APUs nur für Konsolen gibt.
Die Konsolen haben aber meist schnelleren Speicher auf den Sie zugreifen können und sind somit nicht durch die Bandbreite so limitiert. Von der CPU Leistung würde nämlich auch schon ein 5600g oder 7600g vollkommen für Games ausreichen, da die iGPU immer limitiert, wohl auch mit DDR5 6000 und RDNA3.
Selbst beim älteren 3400g den ich hier auch habe, komme ich lange nicht in ein CPU limit mit der igpu. Und mit einer GTX 1080 in meinen Games und 60fps lock ist auch immer die GPU am anschlag und die CPU dümpelt herum.
Spiele halt kein ANNO, BF, Fortnite, CS, Arma und somit alles easy.

Finde die E-Cores gar nicht so schlecht fürs Gamen, da oft viele Kerne auch nur 50% ausgelastet werden, da machen die E-Cores absolut Sinn zusammen mit 6-8 P Cores. Die Frage ist halt, ob man bei einem 13600 unbedingt 8 ecores benötigt neben den schon 6 P-Kernen mit HT.
 
crustenscharbap schrieb:
Oft sind die Grafikeinheiten der APUs beschnitten weil man separate Grafikkarten verkaufen will.
Nö, weil das Speicherinterface DDR4 bzw DDR5 aufm Board nicht mehr her gibt.
Da ist bei 8-15CU einfach Schluss bei den Bandbreiten die du mit normalem DDR zusammen bekommst.
 
Casillas schrieb:
253 Watt ... nur für die CPU. :mussweg:
Das ist doch beinahe nur die hälfte einer GPU! Also nicht so schlimm! Was mich mehr stört, dass anno dazumal als ich mir einen P4 580 geleistet hatte, immer alle von Thermokraftwerk labberten, dabei ist der doch im vergleich zu heute sehr sehr sparsam. :evillol:
 
Zurück
Oben