News Intel-Prozessoren: Arrow Lake-S/HX muss bis 2026 mit Refresh überdauern

mospider schrieb:
In 4K mit DLSS scheint die CPU jedoch wichtig, da hier in einer niedrigeren Auflösung gerendert wird.
So spiele ich die meisten Spiele.
Nur warum sollte man mit einer 4090/5090, die man mit einem 9800X3D sein Eigen nennen sollte, mit lediglich DLSS-Balanced spielen? Darunter sollte man das Geld besser in die Grafikkarte investieren.vHabe ehrlich gesagt noch nie etwas unterhalb von DLSS-Quality nutzen müssen, idR hat man selbst mit DLAA mehr als genug Bilder - und da ist man eben recht selten im CPU-Limit …
Wolfgang.R-357: schrieb:
🙄
Na ich weiß nicht ...
Die PC-Sparte hält Intel über Wasser
&
https://www.computerbase.de/news/pr...on-mit-niedrigstem-absatz-in-14-jahren.91325/

Intels Aktien haben viel Wert verloren, sie entlassen viele Leute, verkaufen ganze Sparten, quasi keiner empfiehlt sie mehr, nur weil sie finanziell noch nicht ab Abgrund stehen sind sie dennoch schwer angeschlagen.
Dieses „quasi keiner empfiehlt sie mehr“ ist eben nur in deiner Gaming-Blase und vermutlich nicht einmal dort abseits vom 580€ 8-Kerner, die Welt dreht sich natürlich nicht um 15% im Gaming …. bei Intel sind es aktuell immer noch über 53 Milliarden Umsatz (bei AMD immerhin mittlerweile 25 Milliarden, wobei hier das Enterprise-Segment und nicht das Client-Geschäft mit Gaming ausschlaggebend ist) - im Vergleich zum Rekordumsatz im quasi Monopol mit über 70 Milliarden müsste man doch bei „empfiehlt quasi keiner mehr“ deutlich weiter entfernt sein, deutlich unter dem Umsatz von AMD der Logik entsprechend :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Alesis
pioneer3001 schrieb:
Genau das hast du nicht verstanden. Wo AMD 16 Kerne braucht, muss Intel 24 auffahren, weil 16 abkacken würden.
Interessant. AMD wurde bei Zen1 und 2 gefeiert für mehr Kerne, die selber aber schwach waren. Bei Intel sind mehr Kerne auf einmal schlecht.

Im Grunde ist es völlig egal. Was zählt ist Performance, Preis und Effizienz.
Intels Problem ist, dass sie kein x3D äquivalent haben und deswegen in Games keine Chance haben. Ansonsten ist Zen5 auch nicht besser als Arrow Lake.
 
  • Gefällt mir
Reaktionen: MalWiederIch, tso, Cr4y und 2 andere
Verstehe ich das richtig, das Arrow Lake ein Ultra 300 Serie Prozessor bekommen?
 
MalWiederIch schrieb:
Nur warum sollte man mit einer 4090/5090, die man mit einem 9800X3D sein Eigen nennen sollte, mit lediglich DLSS-Balanced spielen? Darunter sollte man das Geld besser in die Grafikkarte investieren.vHabe ehrlich gesagt noch nie etwas unterhalb von DLSS-Quality nutzen müssen, idR hat man selbst mit DLAA mehr als genug Bilder - und da ist man eben recht selten im CPU-Limit …
Ja, bis vor kurzem habe ich auch nur DLSS-Quality genutzt. Mit DLSS 4 kann man jedoch auch ein bis zwei Stufen herunter gehen und hat immer noch die Bildqualität wie vorher mit DLSS-Quality.
DLAA nutze ich nicht, da mir die FPS in der Regel zu gering sind.
 
duskstalker schrieb:
arrowlake hat noch viel potential, ähnlich wie bei zen1 damals - wenn der refresh so wird wie Zen+, ggf. sogar mit größeren CPUs (arrowlake war bis 8p+32e vorgesehen, kann man in diversen bios Menüs sehen, die 8 statt 4 e cores Cluster register haben), dann immer her damit.
Grundsätzlich finde ich so heterogene Konzepte wie Arrow Lake auch sehr spannend und sehe auch viel Potential drin.

Aber die Kombination die Intel da plant sind dann doch sehr Special Intresst für irgendwelche Spezialanwendungen, Server und AI. Aber für den normalen Home&Office Bereich finde ich die Kombinationen einfach nicht ausgewogen.

Nicht so mit den E-Cores übertreiben sondern finde 8 E-cores sind für fast alle Fälle genug, dafür lieber mehr P-Core und vorallem mehr Xe iGPU Einheiten wären sinnvoll.

Denn es sind ja nur 2 Xe Einheiten bei den 225ern, 3 Xe Einheiten bei den 235ern und 4 Xe Einheiten bei den 245ern, 265ern und 285ern.

Und selbst der Core Ultra 9 285K hat im Vergleich zum Ryzen 7 8700G mit Radeon 780M nichtmal die halbe iGPU Leistung:

forum845.jpg

Intressanter fände ich 6-20 P-Kerne, immer 8 E-Kerne und 4-10 Xe iGPU Einheiten.

Mit so 10-12 P-Kernen + 8 E-Kernen und 10 Xe iGPU Einheiten könnte man wohl wesentlich mehr anfangen und sogar einfachere Spiele ohne Grafikkarte spielen.

mkl1 schrieb:
Desktop bleibt langweilig bis Nova Lake. Panther Lake wird aber der interessanteste Chip für Notebooks. Lunar Lake war bei der Leistung sehr begrenzt mit nur 8 Kernen. Panther Lake als klassischer Mobil Chip ersetzt das relevante lineup mit Chips zwischen 8 bis 16 Kerne. Das ist eine Generation für den Massenmarkt. Im Vergleich zu Lunar Lake eine ganz andere Nummer.

Was die CPU Leistung betrifft wäre finde ich Lunar Lake garnicht schlecht, aber die iGPU Leistung ist sehr mau, die Geräte sind ziemlich teuer und fangen erst bei knapp 1.800€ an und sind durch die SoC Integration null anpassbar und aufrüstbar.

Wenn ich da jetzt Vergleiche:

forum846.jpg
forum847.jpg


Da ist ein klassisches Core i Notebook einfach viel günstiger, besser anpassbar und aufrüstbar, und vorallem viel leistungsfähiger. Auch durch die CPU, vorallem aber wegen der GPU. Mit einer GeForce RTX 4060 Mobile kann man durchaus passabel zocken wenn man es möchte.

Klar ist es ast doppelt so schwer, und wird keine so lange Akkulaufzeit erreichen. Aber die wenigstens Leute wollen mit einem Notebook wirklich ständig hochmobil arbeiten. sondern eher nur zwische den verschiedenen Zimmern ihrer Wohnung, dem Arbeitsplatz, Hotels, etc. wechseln. Und da spielt dann die Akkulaufzeit garkeine Rolle.
 
bensen schrieb:
Interessant. AMD wurde bei Zen1 und 2 gefeiert für mehr Kerne, die selber aber schwach waren. Bei Intel sind mehr Kerne auf einmal schlecht
Ui, das ist aber mal ganz weit hergeholt. Und warum war das so? Weil Intel sich unterhalb der i7 Produkte weigerte HT freizugeben und im Regelfall nicht uber die vier Kerne hinaus kam, was das Einstiegssegment doch gehörig im Zaun hielt für die Kunden.
Genauso wird nun anders herum oft genug erwähnt, dass AMD endlich seit Generationen gezwungen wird die Chiplets in ser Kernanzahl zu erweitern und dann endlich den Stillstand bei 6 und 8 Kernen aufzubrechen.

Aber Hauptsache halt einen Haufen mit einer komplett anderen Diskussion gelegt.
 
Tharan schrieb:
Aber Hauptsache halt einen Haufen mit einer komplett anderen Diskussion gelegt.
Sachlich diskutieren kannst du nicht?
Das ist keine komplett andere Diskussion. Was damals 4 Kerne waren sind heute 16 Kerne. Am Anfang utopisch viel, irgendwann Standard und irgendwann zu wenig. Kein Mensch hat einen Vorteil davon, wenn die Kernanzahl nicht stetig erhöht wird.

Also warum soll es nun schlecht sein, dass Intel aktuell 24 Kerne verbaut?
 
  • Gefällt mir
Reaktionen: MalWiederIch, ThirdLife und Raptorlake
Martyn schrieb:
Was die CPU Leistung betrifft wäre finde ich Lunar Lake garnicht schlecht, aber die iGPU Leistung ist sehr mau, die Geräte sind ziemlich teuer und fangen erst bei knapp 1.800€ an und sind durch die SoC Integration null anpassbar und aufrüstbar.


Lunar Lake Geräte gibt es ab 900€. Das solltest du nochmal überprüfen. Dein Vergleich der beiden Geräte ist selten dämlich.
 
Quidproquo77 schrieb:
Arrow Lake ist auf alle Fälle nicht ineffizienter als Zen 5.
ARL zieht Zen 5 vor allem in tieferen TDPs ordentlich ab. Alles unter 120W geht mWn auch laut Test hier rein an den 285K. Insofern schon eine sehr geile Productivity CPU.
 
  • Gefällt mir
Reaktionen: MalWiederIch
O Intel, Where Art Though?

Persönliche CPU-Historie (nicht allgemein aussagekräftig, nur eigene Erfahrung, beinhaltet teils mehrere/verschiedene CPUs im jeweiligen Zeitabschnitt):

1993-1998 AMD - zufrieden
1998-2002 Intel - zufrieden
2002-2004 AMD - unzufrieden
2004-2024 Intel - zufrieden
2025-??? AMD - bisher zufrieden (d.h. ca. 1 Monat)

Ich bin weder für noch gegen AMD/Intel, aber sehe momentan für meine Bedürfnisse keinen Grund, eine Intel-CPU zu verbauen und bin etwas sentimental und traurig deswegen.

Schande über mein Haupt!
 
pioneer3001 schrieb:
Genau das hast du nicht verstanden. Wo AMD 16 Kerne braucht, muss Intel 24 auffahren, weil 16 abkacken würden. Zudem hat es kein HT und kein AVX-512 für noch mehr Performance. Das ist ein Frankenstein und nicht Innovation.
bensen schrieb:
Interessant. AMD wurde bei Zen1 und 2 gefeiert für mehr Kerne, die selber aber schwach waren. Bei Intel sind mehr Kerne auf einmal schlecht.
Aus Kundensicht sind die Vergleiche vollkommen müßig. Am Ende kackt die Ente. Wie die Leistung erbracht wird, ist vollkommen wurscht. Es zählen nur Leistung und Verbrauch.
Aus Herstellersicht ist es da schon viel spannender, denn je nach Ansatz hat man unterschiedliche Produktionskosten, was letztendlich die Marge bei einem zu erzielenden Preis ausmacht. Und hier könnte ich mir Vorstellen, dass Intels Ansatz teurer ist, weil komplexer.
 
  • Gefällt mir
Reaktionen: incurable
crustenscharbap schrieb:
Wofür kann man die NPU ernsthaft nutzen? Würde mich wirklich mal interessieren? LLMs? Bildgerneratoren? Wenn ja, wie schnell läuft sowas auf net NPU.

Was mich bei Intel reizt ist, dass man mit den Dingern gut Videos schneiden kann.
Eher so Dinge wie Copilot Beschleunigung (d.h. in der O365 Umgebung, Teams). Im Moment ist das noch kein Thema, aber die Geschwindigkeit die MS mit Copilot hinlegt deutet daraufhin, dass in den nächsten 1-2 Jahre eine lokale Beschleunigung einen grossen Vorteil ergeben kann.

Und da man gerade im geschäftlichen Bereich nicht nur für heute und Morgen Computer anschafft, sondern mind. 3-4 Jahre ist das schon ein relevanter Punkt finde ich.
 
  • Gefällt mir
Reaktionen: ThirdLife und crustenscharbap
CadillacFan77 schrieb:
Und da man gerade im geschäftlichen Bereich nicht nur für heute und Morgen Computer anschafft, sondern mind. 3-4 Jahre ist das schon ein relevanter Punkt finde ich.
Aaach, papperlapapp. Externe 5090 ans Notebook stecken, das sollte genug beschleunigen. 🤣
 
bensen schrieb:
Sachlich diskutieren kannst du nicht?
Das ist keine komplett andere Diskussion. Was damals 4 Kerne waren sind heute 16 Kerne. Am Anfang utopisch viel, irgendwann Standard und irgendwann zu wenig. Kein Mensch hat einen Vorteil davon, wenn die Kernanzahl nicht stetig erhöht wird.

Also warum soll es nun schlecht sein, dass Intel aktuell 24 Kerne verbaut?

Aber genau das kritisiert doch niemand, genau im Gegenteil. Aber dein erster Kommentar suggeriert eben das Gegenteil, was nicht gegeben ist. Alle fanden bei Zen 1 und 2 toll, dass AMD die vier Kerne von Intel aufbricht und nun anders herum wie AMD nun unter Zugzwang ist.
Wo war da dein sachliches Argument zuvor?

Keiner findet mehr Kerne nun schlecht. Man diskutiert lediglich über den Sinn von HT/SMT und ein paar verweisen auf die Gesamteffizienz statt rein über die Kernanzahl an sich zu reden. Deine Aussage fördert eher wieder das Derailing AMD vs Intel ohne Details.
 
Balikon schrieb:
Wie die Leistung erbracht wird, ist vollkommen wurscht. Es zählen nur Leistung und Verbrauch.
+Preis. Genau das habe ich geschrieben.
Balikon schrieb:
Und hier könnte ich mir Vorstellen, dass Intels Ansatz teurer ist, weil komplexer.
Das denke ich auch. Aber nicht aufgrund der Anzahl Kerne.
Ergänzung ()

Tharan schrieb:
Aber genau das kritisiert doch niemand, genau im Gegenteil.
Doch, wurde es.

Tharan schrieb:
Aber dein erster Kommentar suggeriert eben das Gegenteil, was nicht gegeben ist.
Nein, suggeriert er ganz und gar nicht.
Tharan schrieb:
Wo war da dein sachliches Argument zuvor?
Das Argument ist, das AMD 8 Kerne brauchte um 4 Kerne zu schlagen.
Jetzt braucht Intel 24 Kerne um 16 Kerne zu schlagen.
Tharan schrieb:
Deine Aussage fördert eher wieder das Derailing AMD vs Intel ohne Details.
Das ist ja längst geschehen und ich halte nur den Spiegel vor.
 
  • Gefällt mir
Reaktionen: MalWiederIch und incurable
Tharan schrieb:
Alle fanden bei Zen 1 und 2 toll, dass AMD die vier Kerne von Intel aufbricht
Zen 1, Zen+ und Zen 2 waren langsam und AMD musste die vereinbarten Belichtungsmengen bei Global Foundries abnehmen, was dazu führte, dass sie sich für eine 'viel Silizium, viel Cinebench'-Strategie für die Vermarktung entschieden haben.

Die Ergebnisse waren, abseits der "Mehr Kerne sind das Tollste"-Kundschaft, eher mau:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-1800x-1700x-1700-test.58350/
 
mospider schrieb:
Ja, bis vor kurzem habe ich auch nur DLSS-Quality genutzt. Mit DLSS 4 kann man jedoch auch ein bis zwei Stufen herunter gehen und hat immer noch die Bildqualität wie vorher mit DLSS-Quality.
Der war gut :p Kurz: nein.
mospider schrieb:
DLAA nutze ich nicht, da mir die FPS in der Regel zu gering sind.
Der Satz macht keinen Sinn ich nutze DLAA auch nur dort, wo es für 60FPS reicht - und dafür reicht es mit einer 4090 selbstverständlich oft …
Ergänzung ()

Oberst08 schrieb:
Bei Computerbase war der 285k in Multicore 1% schneller als der 9950X. Und dein "sparsamer" sieht so aus:
Handbrake Durchschnitt: 159W zu 222,4W. Aber nicht für Intel, sondern für AMD. Für 1% mehr Leistung braucht Intel also 60W mehr. Wo genau ist Intel dann da sparsamer? Oder war das auf Maximal bezogen? 196,2W bei AMD zu 263,3W bei Intel.
285k Test auf CB
Wobei das das Positivbeispiel ist, schade dass man hier nur ein einziges Programm testet, im Schnitt sieht es eher so aus:
IMG_0303.jpeg

Aber weder 1% mehr Leistung, noch 15W weniger Verbrauch sind relevant bei der Kaufentscheidung, 9950X und 285K geben sich einfach nichts und der Preis ist das entscheidende Argument :)
Raptorlake schrieb:
Zen 1 fande ich auch nicht besonders toll.
Niemand fand Zen 1 besonders toll, aber die waren günstig - und mit den Einnahmen kamen stetig besseren Zens (und die höheren Preise :p) …
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Der Satz macht keinen Sinn ich nutze DLAA auch nur dort, wo es für 60FPS reicht - und dafür reicht es mit einer 4090 selbstverständlich oft …
Nicht alle spielen noch mit 60 FPS und selbst in 4K ist das bei mir schon einige Jahre her.
Deshalb ist es gut, dass es DLSS gibt.
 
Zurück
Oben