Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Es ist halt schwierig. Arrow Lake ist effizienter.
Das ist aber im Gesamteindruck der einzige wirkliche Pluspunkt und das auch nur gemessen am Vorgänger und nicht an der Konkurrenz.
Krass wie weit vorn der 7800X3D ist im Vergleich. Noch krasser wie gut mein 5800X3D noch dasteht.
Das soll Intels neue Gen sein?
Ich hab hier entweder Leistung en par mit den 14000ern und 9000ern erwartet bei deutlich (!) weniger Verbrauch ODER massive Mehrleistung, vor allem im Gaming, bei moderat höherem Verbrauch als 14000er oder 9000er CPUs.
Jeder mit halbwegs Hirnmasse nimmt zum Gaming nen 7800X3D oder bei Workloads + Gaming nen 9950X 3D.
Auch das Gelabb von wegen "Naja mit UV und Limits säuft der nicht soviel!" zählt hier nicht mehr. Das kann man bei dem AMD Kisten auch machen und die Leistung geht dabei nicht in die Binsen.
Ja aber ein Programmierer kann sich auch einen 7735HS gönnen in so einem Mini-PC und hat auch Leistung satt, außer er muß Chromium kompilieren und dann fragt es sich, ob er sich nicht einen Threadripper oder Epyc gönnt. Diese Mini-PCs werden uns quasi für wenig Geld nachgeworfen, die Verlustleistung ist in den meisten Fällen maximal 120W (mehr geben die Netzteile nicht her, AMD APUs können auf 15, 25, 35, 45 und 54W eingestellt werden) und da muß man sich keine Sorgen machen, daß es den Raum unnötig aufheizt.
Klar wenn du eine CPU für Anwendungen suchst und zwischen dem 9950x und 285k entscheidest, dann kannst du mit dem 285k natürlich auch Spielen. Aber das ist dann nicht mehr die Hauptaufgabe des Rechners beim Kauf.
Das wäre bei mir der Fall, ich muss meinen PC beruflich nutzen, aber in der Freizeit zocke ich auch gerne damit.
Leider fällt die Leistung beim Gaming doch etwas schlechter aus, als ich mir erhofft hatte. Da kann ich auch bei meinem 14600K bleiben, obwohl ich die Anwendungsperformance der neuen CPUs schon gebrauchen könnte...
Ich stimme zu, nur bei CB ist der Unterschied beim idle so extrem. ist hier aber auch für viele im Forum sehr wichtig.
Unterm Strich scheint der Klebechipansatz auch hier zu weniger Effizienz zu führen. Dafür gibt es die bessere Fertigung und man fährt als Heavy-Idle-User (ich weiss leider nur immer noch nicht, warum man das tun sollte) mit Intel besser.
https://www.cpubenchmark.net/singleThread.html
sagt völlig was anderes aus und über Effizienz brauch man gar nicht darüber nachdenken, bald kommen Grafikkarten auf den Markt, die fressen im Desktopbetrieb schon fast 500Watt.
Ja aber welchen Powerplan? Es gibt in 24H2 zwei Powerplan Menüs (WTF?). Überschreibt der alte den neuen oder umgekehrt? Windows ist einfach Müll. Und daß Recall "mandatory" ist, weil sonst der File Explorer nicht funzt, setzt dem ganzen die Krone auf, aber das ist ein anderes Thema. 🤣
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Bulldozer war langsamer als sein Vorgänger und hat gesoffen wie ein Loch. Bei Arrow Lake trifft das nur auf die Gaming Performance zu. Die Anwendungsperformance ist stark und bei der Leistungsaufnahme ist AL ebenfalls deutlich zurückhaltender.
Ich verstehe Intel nicht. Die neuen Server-CPUs laufen in Intel 3 Fertigung ganz gut. Warum hat man nicht einfach den Raptor Lake von Intel 7 auf Intel 3 geshrinkt. Da wäre man auch effizienter, aber dank monolithischem Design in Spielen nicht langsamer.
Ich vermute aus zwei Gründen. Einmal weil so moderne Fertigungen teuer sind und Monolithische große Chips im Consumer Bereich dann kaum wirtschaftlich sind.
Je größer der Chip, desto höher die Wahrscheinlichkeit, dass man ihn wegen eines Fehlers komplett wegschmeißen kann.
Und dann weil Intel 3 wohl nicht die Taktraten erreicht. Man hätte also einen effizienteren, aber langsameren Chip.
Achja, drauf gefreut dann ist er da der Test.
Ich will gar nicht wissen wieviel Aufwand dieser Test fuer euch wieder bedeutet hat, aber wahrhschlich werd ich es gleich im Podcast erfahren kekw.
Die gemeine Leserschaft (ich auch) springt zum FPS Rating, 1%, und vllt noch Effizenz, FPS pro Watt und ist nach 3 Minuten lesen fertig und denkt sich lol Intel die Noobs
Das sieht aber eher wieder nach typischen Youtube Aufschrei für nix aus, so wie damals Zen 5 verdammen weil Ultra scheisse und so.
Wir nehmen hwinfo letzte beta und loggen all Power in mit. Sieht nicht so aus als würden da 100 Watt fehlen oder woanders herkommen.
Ich habe mir extra noch ein Tomahawk besorgt, weil ich weiß, dass es dort die dritte Spannungswandlerreihe nicht gibt. Ergo konnte ich dann auch messen UND auslesen, weil es eben nicht über den 24-Pin geht, ich habe das Versorgungsschema aus dem Whitepaper hier. Wenn der Boardpartner keinen Müll verzapft hat, passt HWInfo ganz gut, wenn man den Sensor-Loop mit dem True-RMS vom EPS vergleicht. Es stimmt nur dann nicht, wenn irgendein wackeliges AI Overclocking Vcccore dynamisch verhunzt, von dem die profane Telemetrie nichts mitkriegt. Dann stimmen zwar die Ströme, aber das Produkt mit den Spannungen geht schief. Solange man aber mit Standardprofilen arbeitet und die Loadline nicht manipuliert, stimmern HWInfo und die EPS-Messungen einigermaßen überein. Der Rest sind immer die üblichen Fehlertoleranzen
Das Problem mit Zen5 ist, daß eine neue Architektur auch einen neuen Compiler braucht. Die Spiele werden sicher nicht neu kompiliert, damit die Architektur "strahlen" kann. Deswegen ist das bei Servern eine ganz andere Geschichte, wo man die IPC Steigerung auch sieht... Und AMD optimiert natürlich dort, wo sie die meiste Kohle holen...
Bulldozer konnte nichts. Kein Multi-Core, Kein Single-Core, keine Games - und war dazu völlig ineffizient. Bulldozer war Abfall und Verschwendung von Silizium.
Ja, NEIN, ja, ja, ja und maybe. Unter bestimmten (ob sinnvoll oder nicht 🤷♂️) Bedingungen konnte man eindrucksvolle MC/MT Performance aus den Modulen rauskitzeln, z.B. gleichzeitig AAA - Titel spielen und via CPU das Gedaddel streamen etc., potentiell schneller als mit einem Ivy Sechskerner damals, wobei beide dann vlt. keine spielbaren FPS mehr erzeugt haben und der Bulli dabei 2-3 mal soviel Strom brutzelt...
Nach Zen5 (wo der Sprung auch eher ein Sprüngchen war) und jetzt dem hier (trotz schon sehr kleinen Strukturbreiten) habe ich irgendwie das Gefühl, die x86-Architektur wird es nicht mehr so lange machen (dass MS auch schon für ARM entwickelt, Apple und Linux noch länger, passt da ins Bild für mich).
Wenn auf ARM dann ""alles läuft"" und wir mit mehr Energieeffizienz gesegnet werden: Immer her damit! Steinigt mich, aber ich will für meinen Desk-Schlopp Desktop weniger Verbrauch, insbesondere im Leerlauf, Leistung sollte mir noch für eine Weile reichen...
Das ist genau der Punkt.
IDLE Verbrauch in Tests (bei dem tatsächlich der größte Teil der CPU schläft) hat mit der Belastung auf einem durchschnittlich Zugemüllten Windows mit 175 Hintergrundprozessen nicht so wahnsinnig viel zu tun.
Nur lässt sich das relativ schwer in vernünftig vergleichbaren Tests erfassen.
Bulldozer war langsamer als sein Vorgänger und hat gesoffen wie ein Loch. Bei Arrow Lake trifft das nur auf die Gaming Performance zu. Die Anwendungsperformance ist stark und bei der Leistungsaufnahme ist AL ebenfalls deutlich zurückhaltender.