News Intel Core Ultra: Tests zu 285K, 265K und 245K für Ende Oktober erwartet

Schade, dass AMD nicht abgeliefert haben. Vor allem der lahme X870(E) Chipsatz und die Einschränkungen bei den Boards haben für mich den Ausschlag gegeben, meinen degenerierten RPL Müll nun doch nicht durch ein AMD-System zu ersetzen.

Jetzt wäre ein dritter Mitbewerber echt gut gewesen, denn Intel wollte ich nach dem RPL Gemurkse jetzt auch nicht unbedingt mehr anfassen. Aber es bleibt einem ja keine Wahl...

Insofern bin ich schon sehr interessiert, was Arrow Lake angeht. Bei den CPUs wissen wir ja dank inzwischen Tonnen an Leaks, wo die Reise hingeht.
Der Performancezuwachs ist im Grunde enttäuschend dafür, dass wir hier so einen großen Sprung machen. Wir gehen ja von Intel 10nm auf TSMC 3nm (N3B). Das ist ein fetter Satz, aber scheint wenig zu bringen.

Deutlich gespannter bin ich auf die Z890 Plattform. Könnte dieses Mal bei mir das APEX werden. Schauen wir mal, wie die Boards ausgestattet sind und wie/wo man die M.2 SSDs platzieren kann usw. (ist mir sehr wichtig).
Zudem wäre natürlich beim RAM schön, wenn das per "plug & play" einfach läuft.
Mit meinem ROG STRIX Z790-E hatte ich einige zeitraubende "Fummelei" bis da die höchst möglichen Speichertaktraten ausgelotet waren (weder mein 32GB 7200er Kit, noch das 64GB 6800er Kit liefen mit diesen Werten "out of the box" stabil).
 
Wie lange bis es nen neuen Sockel gibt?
Die x8 x4 x4 x4 Lane Konfiguration wäre was feines für Server.
 
Intel wollte mal (nach Ankündigung von dessen CEO) mit seiner CPU Neuheit Arrow-Lake ein Pendant zu AMD Cache X3D bringen. Seither habe ich diesbezüglich nichts mehr gelesen. Es wurde zwar einiges an Caches-aufgebohrt aber eine Intel eigene Art ala PL4 Variante - wie es mal hieß - vermisse ich. Weiß von Euch evtl. jemand was mehr oder hat was gelesen? Danke und Grüße an alle Interessierten
 
slowmichael schrieb:
Bei welchem Scenario wo der Amd besser ist haste das denn gemessen ;)
@E1M1:Hangar hat doch eine Seite zurück gezeigt das es z.b. eher 66 zu 89 Watt sind im Flugsimulator und das dabei 56 zu 58 Lowfps bei rauskommen und da glaubst du noch das der neue Intel da doch bestimmt die schlechteren Lowfps hat im Simulator oder in Forza...
Das ist eine immerhin 35% bessere Effizienz und kein Pappenstil.

Ich denke aber, dass Intel das aufholen könnte mit Arrow Lake. Die Problematik dazu ist leider nur, dass dies der Unterschied von 13900k vs. 5800X3D war. Heute wissen wir: 14900K ist weniger effizient als 13900K während 7800X3D leicht effizienter als 5800X3D ist. Das heisst der unterschied ist heute noch grösser.

Was Zen5 X3D bringt wissen wir noch nicht, und auch was Arrow Lake in der Konfiguration bringt auch nicht. Klar, Lunar Lake gibt ein wenig Hinweis darauf, allerdings ist die Architektur nicht wirklich gleich, nur die Kerne. Ein Problemfaktor mit dem Ringbus bleibt scheinbar auch bei Arrow Lake bestehen.
 
  • Gefällt mir
Reaktionen: SweetOhm
@RogueSix kann man so ja nicht sagen, Intels 10nm war auf dem Niveau von TSMCs oder Samsungs 7nm. Daher ja auch die Umbenennung zu Intel 7. Von daher ist es unfair zu sagen es sei ein so großer Sprung (10 auf 3)
 
  • Gefällt mir
Reaktionen: SweetOhm
RogueSix schrieb:
Bei den CPUs wissen wir ja dank inzwischen Tonnen an Leaks, wo die Reise hingeht.
Der Performancezuwachs ist im Grunde enttäuschend dafür, dass wir hier so einen großen Sprung machen.
Interessanterweise gibts noch keine Spiele-Benchmark-Leaks. Die geringeren Frequenzen könnten hier tatsächlich zu nocn enttäuschenderen Ergebnissen führen. Aber mal seriöse Tests abwarten. Ich bin gespannt. Tendiere aktuell auch eher zu Arrow Lake.
 
  • Gefällt mir
Reaktionen: RogueSix
till69 schrieb:
Das hängt am Gesamtverbrauch an der Steckdose. Also neben der CPU an der Effizienz von GPU, Mainboard und vor allem: Netzteil

Nein, das hängt einfach nur am Verbrauch der CPU. Wenn die Intel CPU 20 Watt mehr braucht, dann wird der Raum eben "20 Watt" wärmer. Egal ob die AMD CPU 70° und die Intel CPU 60° hat. Am Ende bedeutet das nur, dass bei Intel die Temperatur schneller abgeführt werden kann und das hängt eben von der Architektur (cache) ab.
Ergänzung ()

pas06 schrieb:
@RogueSix kann man so ja nicht sagen, Intels 10nm war auf dem Niveau von TSMCs oder Samsungs 7nm. Daher ja auch die Umbenennung zu Intel 7. Von daher ist es unfair zu sagen es sei ein so großer Sprung (10 auf 3)

Die Intel Umbenennung war vor allem ein Marketingzug. Von außen sind die Unterschiede schwer einzuschätzen.
 
  • Gefällt mir
Reaktionen: Coeckchen
Ayo34 schrieb:
das hängt einfach nur am Verbrauch der CPU
Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.
Also vergleicht man an der Steckdose, und nicht irgendwelche Software-Werte.
 
pas06 schrieb:
@RogueSix kann man so ja nicht sagen, Intels 10nm war auf dem Niveau von TSMCs oder Samsungs 7nm. Daher ja auch die Umbenennung zu Intel 7. Von daher ist es unfair zu sagen es sei ein so großer Sprung (10 auf 3)

Wo war denn in Sachen Performance/Effizienz da auch nur ansatzweise ein Gleichstand zu TSMC 7nm Produkten?

Nö. Der einzige Grund für die Umbenennung war Marketing, um zu kaschieren, dass man jahrelang auf 14nm hängengeblieben war, weil man 10nm nicht gebacken bekommen hat und dadurch wiederum JAHRE ins Hintertreffen geraten ist.
Es ging bei der Umbenennung nur darum, diesen Abstand zumindest optisch/numerisch etwas zu "korrigieren". Das war reine Kosmetik.

Der Sprung ist gewaltig. Da können Intel an ihren Prozess außen dran schreiben, was sie wollen. Im Kern ist das der Intel 10nm Prozess bei Raptor Lake.

Arrow Lake ist TSMC 3nm. Da hätte es eigentlich um einiges deutlicher vorwärts gehen müssen, aber ich vermute, da es die erste Intel Desktop-CPU von TSMC ist, dass es da auf beiden Seiten noch erheblichen Spielraum für Optimierungen gibt, um die Potentiale des Prozesses voll auszuschöpfen.

Ursprünglich sollte ARL ja in Intel 20A gefertigt werden. Vielleicht war das in der relativen Kürze der Zeit (selbst wenn die Entscheidung für TSMC N3B schon vor 1 Jahr+ gefallen ist, wäre das für Chipentwicklungsmaßstäbe ein kurzer Zeitraum) nicht möglich, ein besseres "Portierungsergebnis" zu erzielen. Who knows?

Zudem mag es sein, dass Intel da nach dem RPL Massaker nun deutlich konservativer rangeht und absichtlich die Handbremse leicht angezogen ist (Arrow Lake soll ja bei 1,2V "hard-capped" sein).

Nun ja... immerhin tut sich gegenüber RPL sicherlich eine Menge bei der Effizienz. Und es geht ja immerhin etwas vorwärts, wenn auch keine Bäume ausgerissen werden.
Persönlich habe ich einen 4K/144Hz Monitor und mir "reicht" eh jede einigermaßen aktuelle CPU aus. Wichtiger ist/wird die RTX 5090 :D .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ayo34
till69 schrieb:
Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.
Also vergleicht man an der Steckdose, und nicht irgendwelche Software-Werte.

Ich komme bei deinen Gedankengängen nicht mehr mit...

Du hast das geschrieben: "Ein Kumpel fährt btw Forza mit dem 5800xd3 und ich mit dem 13600k... rat mal wer von uns davon den kleineren Kühler drauf hat bzw welche CPU besser gekühlt werden muß im Rennspiel."

Und jetzt sagst du, dass auch das x3d System mehr Abwärme fabrizieren kann, weil es einfach so viel stärker ist? Klar, wenn die AMD CPU 30% schneller rennt und dadurch die GPU auch 30% mehr Strom braucht, dann braucht offensichtlich das System von deinem Freund insgesamt mehr Strom.

Wenn du die CPUs vergleichen möchtest, dann musst du aber die Abwärme der CPU betrachten und nichts anderes! Nochmal, weder der 13600 noch der 5800x3d hat ein Temperaturproblem mit günstigen Lüftern. Und wenn der 13600 mehr Strom verbraucht, dann erzeugt er auch mehr Abwärme als die 5800x3d CPU. Egal ob die CPU selbst eine Temperatur von 60° oder 70° hat. Das hat nichts mehr der Gesamtmenge der Abwärme zu tun.
 
  • Gefällt mir
Reaktionen: peru3232, Obvision, RaptorTP und eine weitere Person
Der kluge Kunde wartet erstmal die Langzeitpenetrationstest ab damit man nicht 6 Monate später das Teil per Biosupdate kastrieren muss.
 
  • Gefällt mir
Reaktionen: SweetOhm
till69 schrieb:
Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.
Also vergleicht man an der Steckdose, und nicht irgendwelche Software-Werte.

Und schon wird wieder ganz im Sinne von Team blau alles schön geredet.

Team Blau hat schon länger das lange dicke Rohr auf der Brechstange.
Natürlich nur für den Balken, für mehr nicht.

Danach wird sowieso alles unkühlbar oder brauch eben zu viel Leistung bis sich die CPUs degraden.
Schön wenn der Hersteller das Potenzial der CPUs ausnutzen kann, nur hat es wohl diesmal mit der offenherzigen Config der Boardhersteller gereicht über das Ziel hinauszuschießen. (war früher Norton ihr Ding)

Ich feiere jetzt nicht den Verbrauch der AMD CPUs, die könnten ebenfalls wesentlich effizienter sein.
(9700x 65W vs 105W)

Auch wieder wahr: größere Dichte, kleinerer Fertigungsprozess und die Kompatibilität zu den AM4 Kühler hilft nicht wirklich beim kühlen der CPU.

Selbst mein Ryzen 7 7700 in 65W ("ECO") zieht ~88W bei Volllast.
Eine Intel CPU die mit 125W TDP angegeben ist und das Suffix "K(S)" am Ende stehen hat, ballert sowieso ins Templimit. Egal was da an Kühler drauf sitzt.

Fakt ist:

Wenn du wirklich an der Steckdose vergleichen willst, musst du zB auch die Frames limitieren und auch erreichen.

Also von wegen sagen: Intel ist effizienter, weil die AMD x3D CPU einfach mal 20fps mehr rauskloppt und die Graka dadurch mehr arbeiten muss, ist halt einfach eine sehr schlechte Milchmädchenrechnung.

Team Blau empfiehlt auch hier: Bitte den Bench einer CPU bitte immer nur so lang, wie der Boost hält. Für ein optimales Ergebnis und beste Vergleichbarkeit.

trigger in 3 ... 2 ... 1 ...

:daumen:

Ich werde mir die Entwicklung natürlich anschauen. Mehr aber auch nicht.
 
  • Gefällt mir
Reaktionen: Snoop7676
dualcore_nooby schrieb:
Ich hoffe darauf, dass ein toller 285K AMD dazu zwingt, einen 24 Kern Ryzen 9970X rauszubringen.
Gibts schon, nennt sich Threadripper.

https://geizhals.de/?cat=cpuamdam4&xf=16686_Ryzen+Threadripper+7000~16689_23

Ich weiß auch nicht, warum eine CPU von Intel mit 24 Threads AMDs 32 Thread-CPUs derart in Bedrängnis bringen soll. Wenn das doch der Fall wäre, dann ist nicht die Kernanzahl das Problem, sondern irgend etwas anderes, zum Beispiel zu langsame IF-Verbindung, zu langsamer Speicherssuport in der 1:1 Taktung... Aber dafür braucht AMD einen neuen IOD und nicht mehr Threads...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm und RogueSix
RaptorTP schrieb:
Wenn du wirklich an der Steckdose vergleichen willst, musst du zB auch die Frames limitieren und auch erreichen
Für den objektiven Vergleich richtig.
Nur: Den Kumpels oben zu sagen die eine Kiste heizt mehr wie die andere, ist Unsinn.
 
till69 schrieb:
Den Kumpels oben zu sagen die eine Kiste heizt mehr wie die andere, ist Unsinn.
Weil ?

Ayo34 schrieb:
Egal ob die CPU selbst eine Temperatur von 60° oder 70° hat. Das hat nichts mehr der Gesamtmenge der Abwärme zu tun.
Hier wird das schon richtig angesprochen.

Hier mal ein perfektes Beispiel:

Beide Rechner mit einer RTX 4090. FPS & Verbrauch in Toleranz bei beiden.

Aber der Verbrauch der CPU ist ja wohl exorbitant unterschiedlich:

in dieser Momentaufnahme:
7800x3D - 65W
13900K - 131W

66W Delta müssen irgendwo hin.

Mit beiden System bekommt man allerdings super das Zimmer warm ;)

1727885966862.png


 
  • Gefällt mir
Reaktionen: alkaAdeluxx
RogueSix schrieb:
Schade, dass AMD nicht abgeliefert haben. Vor allem der lahme X870(E) Chipsatz und die Einschränkungen bei den Boards haben für mich den Ausschlag gegeben, meinen degenerierten RPL Müll nun doch nicht durch ein AMD-System zu ersetzen.
solche Kunden liebt Intel! Spar uns dann aber bitte das Gejammer / Aufmerksamkeitsgehasche später!
 
  • Gefällt mir
Reaktionen: Icke-ffm und muvmend
till69 schrieb:
Nur: Den Kumpels oben zu sagen die eine Kiste heizt mehr wie die andere, ist Unsinn.
Naja in dem Post ging es nicht um das System, sondern um die CPUs resp. deren Kühler und die Aussage so ist halt völliger Quatsch.
 
Soll die Battlemage iGPU in Arrow Lake genauso groß sein wie in Lunar Lake?
Die iGPU in Lunar Lake ist ja scheinbar recht brauchbar, ersetzt natürlich keine dGPU, aber schon viel besser als die iGPUs von Raptor Lake Desktop CPUs.
 
Zurück
Oben