News Intel Arrow Lake: Performance-Prognosen zur Leistung dämpfen Erwartungen

Naja, gefühlt ist man mit einem relativ aktuellen Prozessor sowieso die nächsten 5-6 Jahre super aufgestellt. Mein Xeon von 2013 hat schon 8 Jahre gehalten und mein aktueller 5800x ist auch nirgends an der Grenze. Der wird auch in 6 Jahren noch seine 60 Frames+ fast überall bringen.
 
  • Gefällt mir
Reaktionen: 4lter5ack
Rock Lee schrieb:
Das mit dem Raptor-Lake Refresh war ja zu erwarten. Trotzdem. Das Ding darf dann gegen Zen5 antreten und wird von dem wohl aller Voraussicht nach brutal abgeschlachtet.
Wer soll wen abschlachten? Zen 5 den Raptor Lake Refresh? Zen 5 kommt Mitte/Ende 2024, wäre schlimm wenn sie nicht gewinnen würden. AMDs IPC-Gewinne werden auch immer kleiner, letztes Mal waren es noch 13%, mal sehen ob man 2-stellig halten kann. Klar gewinnen, aber "abschlachten" heißt für mich eher 50% vorn oder so, wie im Graka-Bereich im schlimmsten Fall. Und wenn sie wieder auch nur 13 Prozent zulegen, treffen sie ja je nach Test genau auf Arrow Lake^^

Problematisch für AMD wird der Intel-Refresh trotzdem, denn wenn die Gerüchte halbwegs stimmen, killt er alles außerhalb der X3D-CPUs in AMDs Zen-4-Portfolio. Gegen Core i5 und Core i7 hat AMD jetzt schon kaum Land gesehen, das wird dann noch schlimmer. Und das eine Jahr bis Zen 5 ist lang ...
 
  • Gefällt mir
Reaktionen: ComputerJunge, KlaasKersting, Innocience und 2 andere
Sollte Arrow-Lake nicht die neue Fertigung haben? Damit wäre doch deutlich mehr rauszuholen gewesen. Irgendwie blicke ich da nicht mehr durch.
 
Whitehorse1979 schrieb:
Warum nur in 3 Jahren denken?
20 jahre sind schon ein größerer Zeitraum, man sieht auch sehr schön was sich in der Zeit alles getan hat.
Whitehorse1979 schrieb:
Warum sollte eine effiziente Hardware keine 20 Jahre laufen? Ist der Mensch echt zeitlich derart beschränkt? Finde ich bedauerlich.
Es ging nicht generell darum das Hardware 20 läuft, auch heute noch werden 80186 produziert und eingesetzt, als Controller für Industrieanlagen z.B.
 
Whitehorse1979 schrieb:
Eigentlich sollte jetzt die Zeit kommen in der Energieeffizienz und Lebensdauer von Hardware optimiert wird.
Balikon schaltet seinen über 20 Jahre alten Retrorechner an. Läuft. Was soll an der Lebensdauer von Hardware noch optimiert werden? Auch mit einem über 10 Jahre alten Core-i 2500 kam er bis vor einem Jahr privat noch gut über die Runden.
Die Lebensdauer von Hardware wird von anderen Parametern bestimmt, zum Beispiel Betriebssystemen, die Support für alte CPUs nicht mehr gewährleisten. Oder Software. Keiner wird berufsmäßig auf einem alten Rechner rendern, das kostet viel zu viel Zeit und damit Geld.
Für anspruchslose Arbeiten und Medienkonsum kann man jetzt schon mit Jahre alter Hardware gut auskommen.
 
  • Gefällt mir
Reaktionen: sikarr
Gorasuhl schrieb:
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt.
Das hat aber was mit der Zuverlässigkeit der Systeme zu tun. Wenn da ein Problem auftritt dann kann da mal keiner schnell hinfahren und den Resetknopf drücken. Die müssen teils über Jahrzehnte stabil laufen, das kann man nicht mit Konsumerhardware vergleichen.
Gorasuhl schrieb:
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
RAD750 wird aber noch in 90nm produziert und ist quasi handverlesen, deshalb kosten die auch so viel. Auch sind die Dinger ganz anderen Umwelteinflüssen ausgeliefert, Stichwort Strahlung.
Gorasuhl schrieb:
Wieso die Leistung nicht reicht liegt halt unter anderem am zunehmend aufgeblähten OS von Microsoft und zunehmend weniger bis gar nicht optimierter Software.
die Software ist schon für die jeweilige Architektur optimiert, es wird halt nur alles komplexer und Ressourcen sind mittlerweile im Überfluss da. Aber geh mal mit nem Pentium4 ins Internet auf die gängigsten Seiten. Das Problem ist da nicht nur das Betriebssystem, die Anforderungen an den Browser sind auch ganz andere als vor 20 Jahren.
 
Wann knacken wir endlich die 7GHz?
 
  • Gefällt mir
Reaktionen: Snoop7676
sikarr schrieb:
20 jahre sind schon ein größerer Zeitraum, man sieht auch sehr schön was sich in der Zeit alles getan hat
Das ist richtig. Bis 4k sind viele große Sprünge erfolgt. Aber ganz ehrlich wie gehts jetzt weiter? 8k wäre wohl weniger sinnvoll als nächster Sprung. Wer würde das bemerken meinetwegen auf 32 Zoll? Dazu die Ressourcen die es bräuchte. Ist das noch sinnvoll? Folglich wird es auch andere Prioritäten geben müssen und es könnte tatsächlich sein das sich 4k die nächsten 20 Jahre etabliert. Schwupps könnte eine 4090 entsprechend lang verwendet werden. Oder halt eine entsprechende CPU. Der aktuelle Entwicklungsstand ist schon extrem weit mit heutigem Datum. Das betrifft die Spiele gleichermaßen.
 
Was bringt mehr Leistung, wenn immer schlechter optimiert wird. Empfinde W11 im Vergleich zu W7, trotz neuer Hardware als träger und verbuggter. Aber hauptsache schon träumen das OS in die Cloud zu verlagern. 🤣
 
  • Gefällt mir
Reaktionen: KlaasKersting und 4lter5ack
Whitehorse1979 schrieb:
Eigentlich sollte jetzt die Zeit kommen in der Energieeffizienz und Lebensdauer von Hardware optimiert wird.

Die Lebensdauer ist im grossen und ganzen ok. Wir haben da einen Pentium III und Celeron aus dem Jahr 2000, der seither im Dauerbetrieb laeuft; ein Athlon 64 X2 aus 2005 ebenfalls. Ok, 2018 ist uns ein Pentium 4 (ca. 2002) verstorben (wobei wir nicht geprueft haben, ob der Prozessor kaputt war oder das Board, ist letztlich auch egal). Ich hoffe, die Lebensdauer hat sich bei den CPUs, die wir in den letzten Jahren gekauft haben, nicht verschlechtert.

Die Energieeffizienz wurde durchaus kraeftig optimiert, vor allem weil die CPUs auch in Laptops eingesetzt werden. Besonders im Leerlauf brauchen moderne CPUs (auch Desktop-CPUs) wenig Strom, und wieviel sie unter Last brauchen, kann man einerseits dadurch bestimmen, welche man kauft (z.B. 13900K oder 13900), und man kann sie auch einstellen, dass sie z.B. nur 65W verbrauchen sollen, wenn man eine CPU gekauft hat, die ohne Eingriff mehr verbrauchen wuerde.

Oder Du kannst Dir gleich einen Computer mit Laptop-CPU kaufen. Mit etwas Glueck sind die im Leerlauf noch etwas effizienter, weil sie z.B. diverse Verbindungen abdrehen, wenn sie eine Desktop-CPU noch eingeschalten laesst (aber es kann auch sein, dass die Voreinstellungen in einem Desktop-Geraet mit Laptop-CPU eher Desktop-maessig ineffizient sind).

Also, das, was Du willst, gibt es schon. Du musst es nur kaufen:-).
 
  • Gefällt mir
Reaktionen: 4lter5ack und sikarr
BxBender schrieb:
253W...
Pferde können ja doch kotzen, wenn sie die Stromrechnung sehen.
Und Schweine schwitzen in der Nähe von so einem Rechner.
Na immerhin zahlen wir Steuerzahler mal eben 10 Milliarden, um deren Finanzlage zu stabilisieren.
Letzteres hätten wir uns nun aber auch sparen können, wenn wir damals AMD im Land gehalten hätten.
Zu einem deutlich niedrigeren Preis wohlgemerkt.
Du kaufst dir eine 500€ CPU, dazu die restliche passende Hardware für insgesamt weit über 2.000€ - nur um die dann über 1,9 Cent die Stunde an Mehrkosten im CPU Limit zu heulen? :freak:

Jeder einzelne der die Stromkosten erwähnt kann sich solch einen PC doch angeblich sowieso nicht leisten, völlig egal ob mit 586€ 13900K oder 675€ 7950X3D - allein von der Preisdifferenz kann man doch bereits 4.611 (!!!) Stunden Stromkosten des 13900K im CPU Limit decken :lol: Da rentiert sich meine PV Anlage ja bereits schneller …

Also wirklich wer sich über solche Kosten beschwert muss den 3.000€ PC wirklich zum Geburtstag bekommen haben und wird selbst kaum seine Stromrechnung von 50€ im Monat zahlen können …

Abwärme sehe ich da noch eher ein - aber mit einer RTX 4090 mit über 400W daneben? Vielleicht im Kinderzimmer mit wenig qm noch ein Thema …

Der einzige Grund warum man sich einen 7950X3D holt ist folgender (und nicht die 1,9 Cent Ersparnis bei fast 100€ Mehrkosten):


IMG_0166.jpeg


Und das soll ja auch in Ordnung sein ;)
 
  • Gefällt mir
Reaktionen: tritratrullala
Typisch vorhersehbares verhalten von Intel, etwas mehr Takt was man sich mit mehr Verbrauch und mehr Hitze erkauft, um das versagen zu kaschieren fügt man mehr E-Kerne ein und verbessert eventuell mal die IGP, laaannnnggggwwweeeeiiillllliiiigggg. Die haben ganz andere Baustellen, deren Effizienz ist milde gesagt nicht mehr Konkurrenzfähig.
 
  • Gefällt mir
Reaktionen: fox40phil und 4lter5ack
Whitehorse1979 schrieb:
Warum nur in 3 Jahren denken
Schau mal hier, ich verlinke mal nicht direkt sondern nur auf den Post. Da wurde ein "Benchmark" erstellt der ein 20 Minuten FHD Video in x264 decodiert. In der Tabelle sind auch Faktoren usw. mit drinn, das schöne an der Liste ist das sie unglaublich viele CPUs beinhaltet.
mae schrieb:
Also, das, was Du willst, gibt es schon. Du musst es nur kaufen:-).
Das wird aber dann mit aktueller Software nur schlecht bis gar nicht mehr laufen ;)
 
Die Erfolgsbilanz von Intel in den letzten fünf Jahren ist nicht sehr gut. Es wird lange dauern, das Schiff umzudrehen.Aber sie dominieren immer noch im Server- und OEM-Bereich.

Um sich im OEM-Segment zu verbessern, sollte AMD APUs mit Zen4-Kernen auf dem AM4-Sockel herausbringen. Sie können eine Zen4-APU mit einem Dual-Speichercontroller entwerfen, der in AM4- und AM5-Chips verwendet werden kann. Viele zusätzliche Vorteile für eine kleine Investition. Wenn sie den Cache vergrößern könnten, hätte die Verwendung von DDR4 keine bis minimale Auswirkungen auf die performance.
Könnte die 3D-Version der APUs sein oder HBM auf dem Sockel als Level4-Cache hinzufügen.

DDR4 ist immer noch viel günstiger als DDR5.
PCIe v5 führt zu teuren Motherboards, wird aber für OEM-Systeme nicht benötigt.
Dies soll günstigere Systeme ermöglichen, was für OEMs sehr wichtig ist. TSMC verfügt derzeit über ausreichend Kapazität, um die Menge zu produzieren, die große OEMs benötigen.
 
Zuletzt bearbeitet:
controlokk schrieb:
Was bringt mehr Leistung, wenn immer schlechter optimiert wird. Empfinde W11 im Vergleich zu W7, trotz neuer Hardware als träger und verbuggter.
Dazu gibt es doch mehr als genug Tests die das Gegenteil beweisen?

Another major point I learned from the benchmark video is that RAM usage is vastly different. Windows 7 uses much more RAM than Windows 10 to run at the same or worse framerate. This mostly happens due to a lack of optimization, and it’s worse in some games than others.

The biggest difference in the video was in Project Cars 2, where Windows 7 used about 1.6 GB more RAM while having 15 less FPS in the low 0.1%. So, in a nutshell, you’re losing anywhere from 500 MB to 2 GB of RAM just by gaming on Windows 7.
Dazu kein DirectStorage etc. zukünftig fehlende Sicherheitspatches etc. …
When we talk about the user experience, Windows 11 will always do better than Windows 7, except in some situations.
 
  • Gefällt mir
Reaktionen: sikarr
Chesterfield schrieb:
das teile ich mit dir. aber die Rechnung haben sie bekommen indem viele abgewandert sind zu AMD ( inkl. mir)... dennoch ist die Erwartung immer 20% mehr IPC keine reale Erwartungshaltung auch wenn es "mal klappt" mit den 20%
Das stimmt. Meine Aufrüstung der CPU auf den 5950x verschiebe ich weil max. 30% Leistungszuwachs rauskommen.
 
  • Gefällt mir
Reaktionen: sikarr
controlokk schrieb:
Empfinde W11 im Vergleich zu W7, trotz neuer Hardware als träger und verbuggter.
Ist halt subjektiv, es gibt ja auch die Hardcore Nerds die noch Windows 98 einsetzten und darauf schwören.
Den Vegleich mit das alte OS war schneller als das neue gabs schon immer und oft war es auch so das dies schneller war aber es fällt auch irgendwan nicht mehr auf. Die Betriebssyteme und Umgebungen werden auch immer komplexer das kostet natürlich auch Leistung.
controlokk schrieb:
Aber hauptsache schon träumen das OS in die Cloud zu verlagern. 🤣
In der Cloud ist es aber kein OS mehr, sondern nur noch eine GUI die im Browser läuft. ;)
 
Gorasuhl schrieb:
IBMs RAD6000 ist der Prozessor den die NASA immer noch in ihre Systeme packt. Wird seit 97' rum produziert.
Eine etwas neuere Version, der RAD750 kam bspw. bei Perseverance Rover zum einsatz, aber auch beim Kepler und James Webb Teleskop.
8085er Intel Prozessoren wurden auch in den 90er Jahren noch von ESA und NASA genutzt. Waren damals auch schon gut 20 Jahre alt.

Und der RTX2010 von 1988 kam in Philae dann 2014 zum Einsatz. Das liegt daran, dass Weltraummissionen alle ewig lange geplant, entwickelt und durchgefuehrt werden.

Rosetta (und Philae) sind Nachfolgemissionen von Giotto (1986), wobei die urspruengliche Nachfolgemission zu ambitioniert war und 1993 abgesagt wurde; stattdessen kam dann Rosetta als realistische Variante. Und da waehlte man eben einen strahlungsfesten Prozessor, der damals verfuegbar war, eben den RTX2010. 2004 wurden Rosetta und Philae dann in den Weltraum geschossen, und 2014 hatten sie dann endlich ihr Ziel erreicht, und Philae kam zum Einsatz.
 
Die glänzende Seite ist die integrierte Grafik...

2.30x - 2.40x bei Timespy
2.10x - 2.20x bei 3DMark Wildlife

Klingt unglaublich viel, aber...

Wenn es sich um die Desktop Version handelt, werden wahrscheinlich die bisherigen 32 Grafikeinheiten (der Intel UHD 770) auf 64 Grafikeinheiten verdoppelt. Die doppelte Performance kommt also durch die Verdopplung der Grafikeinheiten zustande, und nicht durch Effizienzsteigerung. Die Effizienzsteigerung bringt lediglich noch 20% drauf.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben