Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

RobinSword schrieb:
Sorry, aber so einfach ist das nicht. In der Realität gibt es Features wie Raytracing und selbst bestimmte Upscaling-Technologien, die auch massiv Last von der CPU fordern. Wer meint, das würde alles nur GPU-Leistung benötigen liegt falsch. Da haben sich schon manche gewundert wieso ihre CPU mit Raytracing plötzlich limitiert. Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt. Das ist inzwischen - nicht nur aufgrund der Auflösung - einfach ein spielfernes Szenario. Und da die entsprechenden Rechenoperationen dann jeder CPU auch etwas anders schmecken, vor allem dann noch in Kombination mit weiteren Features von Nvidia oder AMD als Grafikbrett, macht hier nur ein Praxisbenchmark Sinn, wenn man wirklich eine fundierte Entscheidung treffen möchte.
Aus dem Artikel:

Die Einstellungen der 16 Spiele im Detail
SpielAuflösungGrafikeinstellungen
Ubisoft
Anno 1800720pDX12, Preset Ultrahoch, Vsync aus
AvatarDLSS Ultra-Leistung, Grafik-Preset Ultra
Star Wars OutlawsDLSS Performance, Grafikqualität Ultra
Steam
Baldurs Gate 3720pDX 11, Vsync aus, Preset Ultra
City Skylines 2Vsync aus, Grafikqualität Hoch, DLSS maximale Leistung
CyberpunkReflex aus, Vsync aus, RT Niedrig
Frostpunk 2Vsync aus, unlimited FPS, DLSS Ultra Performance, Preset Ultra High
F1 2024DX 11, Vsync aus, Preset Ultrahoch, Reflex aus, Nur TAA
Ghost of TsushimaPreset sehr hoch, Zusatzoptionen aus
Homeworld 3Grafik-Preset Hoch, DLSS
Senuas Hellblade 2DLSS Ultra Leistung, DLSS, Preset: Hoch
Horizon Forbidden WestGrafik Sehr hoch, Checkbox-Features aus
Dragons Dogma 2Preset hoch
OutcastDX 11, DLSS Performance, FPS max aus, Qualität Ultra
StarfieldGrafik Ultra, Vsync aus, Upscaling aus, Reflex aus, VRS aus
Warhammer Space MarinesDLSS Ultra Leistung, Preset Max, Vsync aus

Ich weiß also nicht, wie du auf Low Settings kommst.
In Spielen wie Avatar, die in 4K mit DLSS Quality nur ~80 fps mit einer RTX 4090 liefern, kämen dann mit 40 CPUs vermutlich 40 Balken der gleichen Länge raus, komplett am Thema des CPU-Tests vorbei.
Soll man dann zur jeweiligen CPU die Auslastung posten? Getreu dem Metto, warum einfach, wenn es auch kompliziert geht...

Klar gibt es dann noch ein paar Settings die extra CPU-Leistung brauchen, dafür musst du dann schon in die jeweiligen Techniktests der entsprechenden Spiele gucken, z.B. Spider-Man.
 
  • Gefällt mir
Reaktionen: bensen, Baal Netbeck, Volvo480 und 2 andere
Nun, das war ja zu erwarten. Reinfall mit Ansage, sozusagen.

Aber ich sehe das ehrlich gesagt sogar halb so schlimm. Es ist deutlich zu erkennen, dass Intel endlich mal an der Architektur arbeitet und deutliche Verbesserungen in Punkto Leistungsaufnahme und Effizienz bringt. Als Basis für weitere Generationen ein wichtiger Schritt!
 
  • Gefällt mir
Reaktionen: Holylemon, danyundsahne und SVΞN
@RobinSword und wenn du in 4K mit min. 180FPS zocken willst, siehst du dass dies selbst mit einer 4090 nicht drinne ist und du dann halt dafür ggf. die Regler auf high oder sogar medium stellen musst, um dann mit deinem neuen 7800X3D diese FPS erreichen zu können, wobei da dann ggf. auch dein 5800X3D für gereicht hätte mit 160FPS in ultra Details sowie DLSS

und das siehst du wie gesagt nicht aus nem CPU Test, selbst wenn du mit einer 4090 bei ultra Details mit max. 120FPS benchst, und so musst du das mit jedem anderen Game dann sehen und genau deshalb wird in "unrealistischen" 720P getestet, damit die Grafikkarte nicht die Ergebnisse limitieren in hohen Auflösungen

echt ein Krampf in jedem CPU Test die selbe Leier runterspielen zu müssen und das bei jemand der hier schon seit 2004 am Start ist...
Ergänzung ()

in drei Seiten ist das geschriebene eh wieder obsolet, weil irgendwer wieder ankommt und kommentiert "löl unrealistischer 720P Test"...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666, danyundsahne, McFritte und 2 andere
MehlstaubtheCat schrieb:
@RogueSix

Das was @Jaffech geschrieben hat, ist korrekt!
Für RAM-OC Tests ist Prime95 nicht zu gebrauchen.
Als Systemtests mittlerweile auch nicht mehr die Nummer 1,
dafür nimmt man den Y-Cruncher.
TM5 oder Karhu, alles andere ist nicht aussagekräftig beim RAM-OC testen.


Gruß
Mehlstaub

Wäre sinnvoll gewesen meinen Beitrag komplett zu lesen, auch wenn er lang war: Ich kann Dir aus EIGENER ERFAHRUNG zu 100% sagen, dass Karhu ein Haufen Sch... ist. Hätte ich mich auf Karhu verlassen, wäre mein System immer noch instabil gewesen.

Ich hatte wie zuvor gesagt genau den Fall, dass Karhu weit über die 10000% coverage hinaus null Fehler anzeigte, aber in Prime dann trotzdem wieder Worker ausgestiegen sind.

Im Übrigen kann man bei Prime wie gesagt Large FFTs für den RAM testen. Dagegen ist zumindest ein Karhu ein Micky Maus Test. Prime Large FFTs geben es dem RAM richtig dreckig :D .

Sorry, aber man merkt, dass Ihr keine Ahnung von Prime habt, sonst würde man nicht so einen Quatsch behaupten, dass Prime nicht für RAM/CPU/OC Stabilitätstests geeignet ist.
Auch beim Torture Test werden übrigens die RAM-lastigen Large FFTs getestet. Deswegen steht beim Torture Test auch der Zusatz "blend" dabei, weil hier alle "Belastungen" gemischt werden (RAM, CPU/IMC usw.).

Den Y-Cruncher kann man natürlich AUCH nehmen, aber Prime war, ist und bleibt die Königsdisziplin in Sachen Stabilitätstest. Das ist einfach Fakt.

Den meisten Leuten schmecken nur die Ergebnisse von Prime nicht, weil Millionen von OC Gamer Kiddies sich kaputt ärgern, wenn ihr "endstabil" geglaubtes Overclocking dann in Prime doch wieder die Grätsche macht.
Daher nutzen viele inzwischen die unzuverlässigeren Alternativen wie Karhu oder Y-Cruncher, weil diese Programme ihnen die gewünschten Ergebnisse liefern statt wie Prime die schonungslose Wahrheit einer Instabilität offenzulegen.

Bitte mal mit Prime und dessen Funktionsweise beschäftigen. Das Ur-Programm mag alt sein und die Gamer-Kiddies werden natürlich durch den Zusatz "95" gleich abgeschreckt (boooaaahhh LeTzTeS jAhRtAuSeNd Digggaaaa!!!!111), aber die Methodik ist etabliert und bewährt und sie wird gerade wegen ihrer Funktionsweise/Methodik auch nie an Aktualität und Zuverlässigkeit verlieren.

Nur ein System, das Prime-stable ist, ist wirklich stabil. Fakt. Das Einzige worüber man da streiten kann, ist wie lange Prime laufen muss, um eine Stabilitätsaussage zu treffen. Die einfache Regel lautet: Je länger, desto besser, aber ich würde als Minimum über Nacht acht Stunden ansetzen, besser zehn bis zwölf. Alles darüber hinaus ist dann wirklich Bonus für die, die es ganz genau wissen wollen.
 
  • Gefällt mir
Reaktionen: JarlBallin, danyundsahne, xXDariusXx und eine weitere Person
Da muss ich wohl meine Unwissenheit schlucken und weiter ziehen! :D
Wenn du nur wüsstest, was mein Beruf ist und was ich jeden Tag zu tun habe.

Gruß
Mehlstaub
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jaffech
Wau schrieb:
nur um damit 99% des Tages im Computerbase Forum zu posten.

Wenn man selber zu unfähig ist IDLE zu erkennen, kann man Windows sagen, es soll den Monitor nach 5 min im IDLE ausschalten... hier sollte auch der verblendetste merken, warum vor dem PC zu sitzen, wenn er idled, ziemlich komisch als Argument wirkt.

Alles andere ist kein IDLE aber lass ihnen wenigstens diesen einen Strohhalm...
 
  • Gefällt mir
Reaktionen: JarlBallin
ElliotAlderson schrieb:
Die Effizienz wurde besser und zwar massivst.
In Deiner/INTEL Welt vielleicht !
Im Vergleich zum Marktbegleiter massivst "Banane" ... :lol:
 
  • Gefällt mir
Reaktionen: JarlBallin und Dittsche
dernettehans schrieb:
Beruf sagt oft nichts über Kompetenz aus, leider. Besonders in der "IT".
Mit einem kleinen Unterschied!
Hätte ich die Kompetenz nicht, könnte ich die kleine Nische in der "IT" in der ich mich befinde,
nicht einmal ausüben. Da braucht es viel wissen, mehr als in anderen "IT" Bereichen.
-------------------------------------------------
Schon komisch, was manche hier als "IDLE" ansehen!
Idle ist der Betriebszustand, in dem der PC absolut gar nichts tut,
gleich nach dem Start ohne Arbeit einfach Desktop, das ist Idle.
Alles unter < 1 % CPU-Last

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: JarlBallin, Jaffech, nyster und 4 andere
HerrRossi schrieb:
Was genau meinst du mit "Murks"?
Ich habe bisher kein Board gefunden, was ne "ordentliche" Ausstattung an schnellen USB-Anschlüssen (vorne und hinten) sowie ausreichend schnelle PCIe Slots bietet, ohne gleich über 300eur zu kosten.
Vielleicht Stelle ich mich nur an, aber die z890 wirken da potenter und besser ausgestattet im Preisbereich um die 250eur. Da wirkt AMDs Plattform schon etwas wie Murks. Zumal sich AMD 0Mühe gemacht hat, die Technik nach 2 Jahren zu verbessern.
Ergänzung ()

ben12345 schrieb:
Beide Prozessoren sind auch für jedes Spiel mehr als ausreichend .
Das stimmt schon. Der 9700x scheint am Ende der bessere Allrounnder zu sein. Betreibt man ihm bei 105 watt, sollte er in Anwendungen in etwa das 245k Niveau erreichen.
 
Sieht aus als hätte Intel mit broadwell und dem 128MB L4 das eigene Grab geschaufelt.
AMD hat die Technik. Nachgemacht und verbessert wâhrend Intel sie fallen gelassen hat.

Edit: hatte 1 zahlendreher
 
Zuletzt bearbeitet von einem Moderator:
RobinSword schrieb:
Sorry, aber so einfach ist das nicht. In der Realität gibt es Features wie Raytracing und selbst bestimmte Upscaling-Technologien, die auch massiv Last von der CPU fordern. Wer meint, das würde alles nur GPU-Leistung benötigen liegt falsch. Da haben sich schon manche gewundert wieso ihre CPU mit Raytracing plötzlich limitiert. Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt.

Aktuelles Beispiel ist Warhammer 40k - Space Marine 2. Zusammen mit Wukong wohl im Rennen um das Spiel des Jahres 2024. Jetzt gibt es kostenlos einen 4K Textur Paket, welches 160 GB groß ist. Das gesamte Hauptspiel ist aber nur 75 GB. Um diese im Spiel zu entpacken und zu laden steigen die Hardware Anforderungen enorm. Das lässt sich mit 720p-low nicht ableiten. https://www.pcgamer.com/games/third...e-gonna-need-some-serious-hardware-to-run-it/

Ja 720p kann man im Review machen. Aber, und das ist völlig unabhängig um welche Hardware es geht, sollte auch so getestet werden wie die Gaming Hardware später auch im eingesetzt wird.

Darüber hinaus gibt es noch weitere Werte die interessant für Käufer sind. Zum Beispiel das Verhältnis Preis/Leistung bzw. bei Gaming Hardware Preis/FPS. https://www.techpowerup.com/review/intel-core-ultra-9-285k/31.html
 
  • Gefällt mir
Reaktionen: RobinSword
Was ich interessant finden würde, wäre ein Test wo man die 14. Gen im Verbrauch bremst so auf ungefähr dem Durchschnitt von Arrow und dann kuckt was da noch an Leistung in Games ist.
Arrow ist zwar viel Effizienter als die Vorgänger, aber auch in vielen Spielen von der Leistung dahinter, teilweise sogar recht stark.

Vielleicht kann man mal beim 14900K paar Spiele nehmen und auf die FPS begrenzen, die der 285K hat und dann schauen was er verbraucht. Dann wird der Effizienzgewinn im Gaming bestimmt noch ein gutes Stück schrumpfen. Wir wissen ja alle, dass der 14900K sehr an der Kotzgrenze betrieben wird. @Volker wäre so ein Test noch machbar?
 
Ich finde die CPU eigentlich ganz spannend. Viele technische Neuerungen drin, viel zum rumspielen und testen. Auch OC könnte interessant sein wenn die CPU schon per se sehr effizient läuft und in Kombination mit dem DLVR lässt sich da bestimmt einiges interessantes machen.

Ich werd mir sicher einen holen - allerdings fürs NAS, im Desktop ist ein 9950X3D gesetzt. Im NAS dürfte das Teil aber neue Effizienzrekorde sprengen, ein 4P+4E Modell für unter 150€ wäre da wohl meine Wahl.
 
  • Gefällt mir
Reaktionen: DerRico
@Verak Drezzt so würde ich das jetzt nicht sagen :D. Aber alle reden von "uuuhhh sooo viel Effizienter" etc. da wäre es interessant zu schauen, wie viel von dem Effizienzsprung noch bleibt wenn man einen 14900K etwas einbremst.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Zurück
Oben