News Intel Arrow Lake: Performance-Prognosen zur Leistung dämpfen Erwartungen

Vitali.Metzger schrieb:
Intel und AMD sollen endlich CPUs raus bringen wie den M1/2 von Apple.
Haben sie doch, nur haben die M Prozessoren viele Co Prozessoren, ein stärkeres Speicherinterface und sind in einem sehr kleinen Strukturformat gefertigt. Das alles schlägt sich natürlich auf den Preis den Apple da aufruft, den wird bei Intel / AMD keiner bezahlen wollen.
 
  • Gefällt mir
Reaktionen: 4lter5ack
franzerich schrieb:
Man weiss nie ob Meteor Lake nicht doch noch für den Desktop kommt...
Falls Meteor Lake-S kommen sollte, dann wird Intel diese nicht als i7 oder i9 verkaufen, denn Meteor Lake hat nur 6 P-Kerne, keine 8 P-Kerne.
Intel wird Meteor Lake für Notebook priorisieren.
 
Slainer schrieb:
endlich mal wieder ein neuer Sockel für 1 Generation...
Intel gibt sich wirklich redlich Mühe einfach nicht mehr innovativ zu sein.

Das ist lustig, weil man ihnen mangelnde Innovation auch bei beibehaltenem Sockel vorwerfen könnte. Wie man's macht...
 
  • Gefällt mir
Reaktionen: thuering
franzerich schrieb:
Das mit der CPU-Leistung ist seit einigen Jahren nur noch "Tüpfleschisserei".
Eigentlich tut sich seit den Core 2nd Gen bereits relativ wenig bzw. gibt's kaum große Sprünge. Der Performance-Zugewinn ist eigentlich auch nur bei Gaming wichtig und auch dort nur deswegen, weil die neu entwickelten Spiele die inzwischen verfügbare Rechenleistung auch voraussetzen - und das nicht unbedingt, weil sie für das Spiel nötig wäre, sondern weil man sich so teure Entwicklungs-/Optimierungsaufwände erspart und die Kosten auf den Nutzer abwälzt.
franzerich schrieb:
Mit der verbesserten iGPU lässt sich hingegen einiges machen. Da kann man sich als "Einsteiger" zum Gaming auch den Kauf einer separaten GPU komplett ersparen.
Das ist auch schon - abseits von AAA - seit Ewigkeiten so. Tatsächlich kann der Casual Gamer auch damit leben, wenn die FPS kurz unter 60 fallen. ;)

In der c't war vor 15 Jahren oder so mal ein Artikel, dass die damals neue AMD-Chipsatzgrafik (780G oder wie sie hieß) in Doom 3 völlig ausreichend war (100fps oder so?)...

Abseits der Hardcore-Gamer-Blase entwickelt sich bei CPUs eigentlich nur noch die Datacenter-Sparte, dafür aber relativ kräftig. Dort sind GHz aber nicht so wichtig wie Anzahl Kerne.
 
  • Gefällt mir
Reaktionen: 4lter5ack
andi_sco schrieb:
nicht jeder benötigt eine extra GPU!
Auch 17 Jahre nach AMDs teurer "Fusion"-Vision Akquisition ist die Nische oberhalb gängiger integrierter Grafikkarten und unterhalb mehrere Generationen alter dedizierter Grafikkarten in meinen Augen nicht die dafür nötige Entwicklungsarbeit oder zusätzliche Siliziumfläche wert.

Gerade wenn man wie Intel zumindest grundsätzlich daran Interesse hat, den oberen Teil dieser Nische mit eigenen dedizierten Grafikkarten zu versorgen.
 
maximus_hertus schrieb:
Die Frage lautet => Ist der Leak korrekt oder ein Fake? Falls korrekt, was wurde da geleakt?

Auf den Folien steht "Performance Projections". Es handelt sich also nicht um Messwerte, sondern Erwartungswerte. Worauf die basieren, wer weiss?
 
sikarr schrieb:
Warum sollte man eine 20 Jahre alte CPU haben wollen, das ist als würden wir heute noch einen Pentium4 und Athlon einsetzen, nein Danke.

Warum nur in 3 Jahren denken? Warum sollte eine effiziente Hardware keine 20 Jahre laufen? Ist der Mensch echt zeitlich derart beschränkt? Finde ich bedauerlich.
 
  • Gefällt mir
Reaktionen: 4lter5ack
Also wird man es weiter über die Taktbrechstange und mehr Watt lösen.
 
  • Gefällt mir
Reaktionen: 4lter5ack
maximus_hertus schrieb:
Kerne, bleibt es bei R9 = 12 und 16, R7 = 8 etc.?
AMD hatte unlängst im Interview darauf hingewiesen, das die Speicherbandbreite das Problem darstellt, diese war bisher zu gering für 16+ Kerne.
Ergänzung ()

incurable schrieb:
Auch 17 Jahre nach AMDs teurer "Fusion"-Vision Akquisition ist die Nische oberhalb gängiger integrierter Grafikkarten und unterhalb mehrere Generationen alter dedizierter Grafikkarten in meinen Augen nicht die dafür nötige Entwicklungsarbeit oder zusätzliche Siliziumfläche wert.
Schau doch mal über den Tellerrand. Gerade bei älteren Games oder Multiplayer Shootern ist eine starke iGPU von Vorteil. Ich habe im Laptop zwei Kerne deaktiviert, weil ich eher die Leistung der Vega 8 benötige und vier Kerne dafür hinderlich sind. Dafür hat die alte 15 W APU einfach zu wenig TDP Spielraum.
Dass das ursprüngliche Fusion Konzept mit Lastverteilung auf CPU und GPU nicht gegriffen hat, ist jetzt nicht so schlimm. Dafür hat man sich mit der Erfahrung dahinter im Konsolenbereich einen guten, stabilen Markt geschaffen.
Und soweit ich das in Erinnerung habe, hatte auch der CPU Teil von Erfahrungen aus der GPU Sparte profitiert.
 
  • Gefällt mir
Reaktionen: 4lter5ack und Gorasuhl
Ich bin gespannt was wird, noch sind sowieso alles nur Vermutungen und selbst Intel weiß noch nicht 100%ig wie die CPUs am Ende performen werden. Ich bleibe jedenfalls bei Intel, komme was wolle
 
@maximus_hertus @Volker @HOT
Natürlich nehme ich die bisherigen Gerüchte auch nicht für bare Münze. 😅
Wenn man mal zwischen den Zeilen liest, sind die ja auch schwammig "at same same power" + was auch immer für einen Sweetspot die sich aussuchen in ihrem nicht genannten Benchmark.
Ich finde es dennoch erstaunlich wenn so weit entfernt vom Marktstart schon so konkrete Benchmarks zu Arrowlake rauskommen.
Wenn die Gerüchte an einem Ende des Spektrums von 40% sprechen und am anderen Ende von 5%, mal schauen was am Ende rauskommt.

Ob sie wieder den Icelake Moment haben und nicht über 5Ghz kommen, wäre tatsächlich die wahrscheinlichste Begründung.
Dennoch fragt man sich warum so wenig bei rumkommt bei neuer Architektur + kleinere Fertigung und trotzdem auf 250W.
 
BxBender schrieb:
Na immerhin zahlen wir Steuerzahler mal eben 10 Milliarden, um deren Finanzlage zu stabilisieren.
Letzteres hätten wir uns nun aber auch sparen können, wenn wir damals AMD im Land gehalten hätten.
Zu einem deutlich niedrigeren Preis wohlgemerkt.
Wir zahlen ja nicht nur, um Intels Finanzen aufzubessern, sondern auch, um unabhängiger zu werden.
Und GloFo hätte sicherlich auch mit einer Finanzspritze Probleme bei modernster Fertigung bekommen.
 
  • Gefällt mir
Reaktionen: thuering
Was sollen diese "Projektionen" überhaupt zum jetzigen Zeitpunkt? Die sollen erstmal MeteorLake rausbringen bevor sie irgendwelche Luftschlösser bauen. Egal ob die neue Architektur erstmal auf dem Notebook ist, aber sie muss mal da sein. Danach kann man immer noch projezieren...
 
  • Gefällt mir
Reaktionen: 4lter5ack
Was man in den Reaktionen auf den Leak bei Twitter so liest, ist dass Arrow Lake auf N3B ist, da Intel zum Anfang der Entwicklung Angst hatte, dass die eigenen Prozesse nicht fertig sind. Da der Prozess aber auch schlecht ist, geht der Takt signifikant zurück.
 
Volker schrieb:
Und die Multi-Core-Gewinne zeigen für mich, dass die neuen E-Cores deutlicher abgehen als die P-Cores, denn genau dadurch gewinnt man diese Tests nämlich.

Kann aber auch sein, dass alle Core effizienter sind, und sie dadurch beim gleichen Power-Target mit hoeherem Takt fahren koennen als beim Raptor Lake.
 
sikarr schrieb:
Warum sollte man eine 20 Jahre alte CPU haben wollen, das ist als würden wir heute noch einen Pentium4 und Athlon einsetzen, nein Danke.
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
8085er Intel Prozessoren wurden auch in den 90er Jahren noch von ESA und NASA genutzt. Waren damals auch schon gut 20 Jahre alt.


Wenn die alten Systeme Hardwareencoder wie x264 oder auch bestimmte Befehlssätze unterstützen würden, könnte man die heute auch immer noch gut als Office System nutzen.
Das System meiner Eltern muss nur für bissi Surfen, YT Videos und Onlinebanking herhalten. Die Leistung würde locker ein P4 oder Athlon XP liefern.
Wieso die Leistung nicht reicht liegt halt unter anderem am zunehmend aufgeblähten OS von Microsoft und zunehmend weniger bis gar nicht optimierter Software.
 
  • Gefällt mir
Reaktionen: tritratrullala und 4lter5ack
incurable schrieb:
Ich wüsste nicht, was Intergrierte Grafik mit doppelter Leistung in meinem Alltag signifikant besser könnte als die aktuelle.
Wenn Anwendungen durch Grafikeinheiten beschleunigt werden, könnten die davon profitieren. Ich denke da z.B. an Videoencoding.
 
Gorasuhl schrieb:
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
Halb-Off-Topic: Nicht mehr lange. Die NASA lässt gerade strahlungsresistente RISC-V basierte CPU-Kerne entwickeln. PowerPC CPUs haben somit in der Raumfahrt ihr Ende gefunden.

RISC-V ist eigenlich überall wo keine umfangreiche Bestandssoftware eine Rolle spielt der Weg in die CPU-Zukunft.

Es gibt nur zwei Gründe weshalb x86-64 so stark verbreitet ist:
1. Die riesige Menge an Bestandssoftware, meist closed-source. Weil Open Source ließe sich neu compilieren.
2. Der Entwicklungsvorsprung was sich in Rechenleistung bemerkbar macht, wobei ARM mittlerweile stark aufgeholt hat,
und RISC-V CPU-Architekturen werden diesen Vorsprung in wenigen Jahren ebenfalls aufholen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DutchTraveller und Gorasuhl
Zurück
Oben