Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Arrow Lake: Performance-Prognosen zur Leistung dämpfen Erwartungen
Haben sie doch, nur haben die M Prozessoren viele Co Prozessoren, ein stärkeres Speicherinterface und sind in einem sehr kleinen Strukturformat gefertigt. Das alles schlägt sich natürlich auf den Preis den Apple da aufruft, den wird bei Intel / AMD keiner bezahlen wollen.
Falls Meteor Lake-S kommen sollte, dann wird Intel diese nicht als i7 oder i9 verkaufen, denn Meteor Lake hat nur 6 P-Kerne, keine 8 P-Kerne.
Intel wird Meteor Lake für Notebook priorisieren.
Eigentlich tut sich seit den Core 2nd Gen bereits relativ wenig bzw. gibt's kaum große Sprünge. Der Performance-Zugewinn ist eigentlich auch nur bei Gaming wichtig und auch dort nur deswegen, weil die neu entwickelten Spiele die inzwischen verfügbare Rechenleistung auch voraussetzen - und das nicht unbedingt, weil sie für das Spiel nötig wäre, sondern weil man sich so teure Entwicklungs-/Optimierungsaufwände erspart und die Kosten auf den Nutzer abwälzt.
franzerich schrieb:
Mit der verbesserten iGPU lässt sich hingegen einiges machen. Da kann man sich als "Einsteiger" zum Gaming auch den Kauf einer separaten GPU komplett ersparen.
Das ist auch schon - abseits von AAA - seit Ewigkeiten so. Tatsächlich kann der Casual Gamer auch damit leben, wenn die FPS kurz unter 60 fallen.
In der c't war vor 15 Jahren oder so mal ein Artikel, dass die damals neue AMD-Chipsatzgrafik (780G oder wie sie hieß) in Doom 3 völlig ausreichend war (100fps oder so?)...
Abseits der Hardcore-Gamer-Blase entwickelt sich bei CPUs eigentlich nur noch die Datacenter-Sparte, dafür aber relativ kräftig. Dort sind GHz aber nicht so wichtig wie Anzahl Kerne.
Auch 17 Jahre nach AMDs teurer "Fusion"-Vision Akquisition ist die Nische oberhalb gängiger integrierter Grafikkarten und unterhalb mehrere Generationen alter dedizierter Grafikkarten in meinen Augen nicht die dafür nötige Entwicklungsarbeit oder zusätzliche Siliziumfläche wert.
Gerade wenn man wie Intel zumindest grundsätzlich daran Interesse hat, den oberen Teil dieser Nische mit eigenen dedizierten Grafikkarten zu versorgen.
Warum nur in 3 Jahren denken? Warum sollte eine effiziente Hardware keine 20 Jahre laufen? Ist der Mensch echt zeitlich derart beschränkt? Finde ich bedauerlich.
AMD hatte unlängst im Interview darauf hingewiesen, das die Speicherbandbreite das Problem darstellt, diese war bisher zu gering für 16+ Kerne.
Ergänzung ()
incurable schrieb:
Auch 17 Jahre nach AMDs teurer "Fusion"-Vision Akquisition ist die Nische oberhalb gängiger integrierter Grafikkarten und unterhalb mehrere Generationen alter dedizierter Grafikkarten in meinen Augen nicht die dafür nötige Entwicklungsarbeit oder zusätzliche Siliziumfläche wert.
Schau doch mal über den Tellerrand. Gerade bei älteren Games oder Multiplayer Shootern ist eine starke iGPU von Vorteil. Ich habe im Laptop zwei Kerne deaktiviert, weil ich eher die Leistung der Vega 8 benötige und vier Kerne dafür hinderlich sind. Dafür hat die alte 15 W APU einfach zu wenig TDP Spielraum.
Dass das ursprüngliche Fusion Konzept mit Lastverteilung auf CPU und GPU nicht gegriffen hat, ist jetzt nicht so schlimm. Dafür hat man sich mit der Erfahrung dahinter im Konsolenbereich einen guten, stabilen Markt geschaffen.
Und soweit ich das in Erinnerung habe, hatte auch der CPU Teil von Erfahrungen aus der GPU Sparte profitiert.
Ich bin gespannt was wird, noch sind sowieso alles nur Vermutungen und selbst Intel weiß noch nicht 100%ig wie die CPUs am Ende performen werden. Ich bleibe jedenfalls bei Intel, komme was wolle
@maximus_hertus@Volker@HOT
Natürlich nehme ich die bisherigen Gerüchte auch nicht für bare Münze. 😅
Wenn man mal zwischen den Zeilen liest, sind die ja auch schwammig "at same same power" + was auch immer für einen Sweetspot die sich aussuchen in ihrem nicht genannten Benchmark.
Ich finde es dennoch erstaunlich wenn so weit entfernt vom Marktstart schon so konkrete Benchmarks zu Arrowlake rauskommen.
Wenn die Gerüchte an einem Ende des Spektrums von 40% sprechen und am anderen Ende von 5%, mal schauen was am Ende rauskommt.
Ob sie wieder den Icelake Moment haben und nicht über 5Ghz kommen, wäre tatsächlich die wahrscheinlichste Begründung.
Dennoch fragt man sich warum so wenig bei rumkommt bei neuer Architektur + kleinere Fertigung und trotzdem auf 250W.
Na immerhin zahlen wir Steuerzahler mal eben 10 Milliarden, um deren Finanzlage zu stabilisieren.
Letzteres hätten wir uns nun aber auch sparen können, wenn wir damals AMD im Land gehalten hätten.
Zu einem deutlich niedrigeren Preis wohlgemerkt.
Wir zahlen ja nicht nur, um Intels Finanzen aufzubessern, sondern auch, um unabhängiger zu werden.
Und GloFo hätte sicherlich auch mit einer Finanzspritze Probleme bei modernster Fertigung bekommen.
Was sollen diese "Projektionen" überhaupt zum jetzigen Zeitpunkt? Die sollen erstmal MeteorLake rausbringen bevor sie irgendwelche Luftschlösser bauen. Egal ob die neue Architektur erstmal auf dem Notebook ist, aber sie muss mal da sein. Danach kann man immer noch projezieren...
Das mit dem Raptor-Lake Refresh war ja zu erwarten. Trotzdem. Das Ding darf dann gegen Zen5 antreten und wird von dem wohl aller Voraussicht nach brutal abgeschlachtet.
Was man in den Reaktionen auf den Leak bei Twitter so liest, ist dass Arrow Lake auf N3B ist, da Intel zum Anfang der Entwicklung Angst hatte, dass die eigenen Prozesse nicht fertig sind. Da der Prozess aber auch schlecht ist, geht der Takt signifikant zurück.
Und die Multi-Core-Gewinne zeigen für mich, dass die neuen E-Cores deutlicher abgehen als die P-Cores, denn genau dadurch gewinnt man diese Tests nämlich.
Kann aber auch sein, dass alle Core effizienter sind, und sie dadurch beim gleichen Power-Target mit hoeherem Takt fahren koennen als beim Raptor Lake.
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
8085er Intel Prozessoren wurden auch in den 90er Jahren noch von ESA und NASA genutzt. Waren damals auch schon gut 20 Jahre alt.
Wenn die alten Systeme Hardwareencoder wie x264 oder auch bestimmte Befehlssätze unterstützen würden, könnte man die heute auch immer noch gut als Office System nutzen.
Das System meiner Eltern muss nur für bissi Surfen, YT Videos und Onlinebanking herhalten. Die Leistung würde locker ein P4 oder Athlon XP liefern.
Wieso die Leistung nicht reicht liegt halt unter anderem am zunehmend aufgeblähten OS von Microsoft und zunehmend weniger bis gar nicht optimierter Software.
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
Halb-Off-Topic: Nicht mehr lange. Die NASA lässt gerade strahlungsresistente RISC-V basierte CPU-Kerne entwickeln. PowerPC CPUs haben somit in der Raumfahrt ihr Ende gefunden.
RISC-V ist eigenlich überall wo keine umfangreiche Bestandssoftware eine Rolle spielt der Weg in die CPU-Zukunft.
Es gibt nur zwei Gründe weshalb x86-64 so stark verbreitet ist:
1. Die riesige Menge an Bestandssoftware, meist closed-source. Weil Open Source ließe sich neu compilieren.
2. Der Entwicklungsvorsprung was sich in Rechenleistung bemerkbar macht, wobei ARM mittlerweile stark aufgeholt hat,
und RISC-V CPU-Architekturen werden diesen Vorsprung in wenigen Jahren ebenfalls aufholen.