Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

Als PC Gamer habe ich nichts erwartet und wurde dennoch enttäuscht.

Man kann nur hoffen, dass sie die CPUs in Gaming Laptops irgendwie anpassen und gut (effizient) reinbringen, damit mehr Watt-Leistung für die GPUs übrig bleibt.
Da kommt ja immer noch iwie kein X3D rein (wieso auch immer) und da greift man aktuell lieber zu Intel CPUs.
 
Beg1 schrieb:
Echt jetzt?
CPUs testet man im CPU-Limit, GPUs im GPU-Limit.

Such dir nen CPU-Benchmark in 720p raus, schau dir die fps "deiner" CPU an, danach guckst du beim GPU-Benchmark wieviel fps die jeweiligen GPUs in deiner bevorzugten Auflösung liefern und schon hast du alle Informationen...

Und wer mehr fps im MSFS will, soll sie doch haben, ist doch für dich irrelevant.
Sorry, aber so einfach ist das nicht. In der Realität gibt es Features wie Raytracing und selbst bestimmte Upscaling-Technologien, die auch massiv Last von der CPU fordern. Wer meint, das würde alles nur GPU-Leistung benötigen liegt falsch. Da haben sich schon manche gewundert wieso ihre CPU mit Raytracing plötzlich limitiert. Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt. Das ist inzwischen - nicht nur aufgrund der Auflösung - einfach ein spielfernes Szenario. Und da die entsprechenden Rechenoperationen dann jeder CPU auch etwas anders schmecken, vor allem dann noch in Kombination mit weiteren Features von Nvidia oder AMD als Grafikbrett, macht hier nur ein Praxisbenchmark Sinn, wenn man wirklich eine fundierte Entscheidung treffen möchte.
 
  • Gefällt mir
Reaktionen: FatalFury
Cr4y schrieb:
Will im Videoschnitt (Hobby) von FullHD und .264 auf 4k und h.265 wechseln. Und mein aktuelles System (intel i7 6700) kann sowas noch nicht Mal abspielen...
Wenn Du schon 4k machst, dann gleich AV1 verwenden. Dann ist die Frage ob HW encoding oder SW encoding. Bei HW ist das fast wurst, was Du verwendest, aber am einfachsten wäre es mit einem Intel Ultra 285k (ohne Graka, keine Ahnung ob man ProShop vertrauen kann @ €620, Alternate um €670). Wenn es SW ist, dann sind 285k und 9950X (€620) (und 7950X €470)) gleichwertig mit SVT-AV1, bei AMD reicht aber ein ASRock B650M Riptide PG Board um 150€ und gut ists. Den 200€ Z890 Boards vertraue ich nicht wirklich... 250€ sieht ok aus. Also mit AMD günstiger und zumindest Aufrüstbar auf Zen6.
 
  • Gefällt mir
Reaktionen: Cr4y
@RobinSword hier mal als Fakten basiertes Beispiel, du willst, warum auch immer, Space Marine 2 in WQHD auf ultra Details auf deinem 240Hz Monitor mit min. 180FPS spielen und willst wissen was du dafür brauchst

dann schaust du dir den CPU Test im CPU Limit an und siehst das dein alter 5800X3D mit knapp 160FPS dafür nicht mehr ausreicht und du auch nicht zu einem neuen Intel greifen kannst, da diese noch weniger FPS liefern und du wohl am besten dann zu nem 7800X3D greifen musst: https://www.computerbase.de/artikel...eite-2#abschnitt_warhammer_40000_space_marine

nun hast du eine 3090 im System, die in etwa einer 4070 Super von der Leistung entspricht und siehst im GPU Test dass diese nicht ausreicht um die Leistung abzurufen und du dafür min. eine 4090 benötigst und genau so müssen CPU als auch GPU Tests gelesen werden: https://www.computerbase.de/artikel...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

und da bringt es nichts im CPU Test die CPU 's bei max. 120FPS im GPU Limit in 4K zu testen, wenn aktuelle CPU's 130FPS und mehr liefern können
 
  • Gefällt mir
Reaktionen: catch 22 und xXDariusXx
RobinSword schrieb:
Sorry, aber so einfach ist das nicht. In der Realität gibt es Features wie Raytracing und selbst bestimmte Upscaling-Technologien, die auch massiv Last von der CPU fordern. Wer meint, das würde alles nur GPU-Leistung benötigen liegt falsch. Da haben sich schon manche gewundert wieso ihre CPU mit Raytracing plötzlich limitiert. Das alles ist in den 720p-Tests auf low details mit alle Features off gar nicht berücksichtigt. Das ist inzwischen - nicht nur aufgrund der Auflösung - einfach ein spielfernes Szenario. Und da die entsprechenden Rechenoperationen dann jeder CPU auch etwas anders schmecken, vor allem dann noch in Kombination mit weiteren Features von Nvidia oder AMD als Grafikbrett, macht hier nur ein Praxisbenchmark Sinn, wenn man wirklich eine fundierte Entscheidung treffen möchte.
Aus dem Artikel:

Die Einstellungen der 16 Spiele im Detail
SpielAuflösungGrafikeinstellungen
Ubisoft
Anno 1800720pDX12, Preset Ultrahoch, Vsync aus
AvatarDLSS Ultra-Leistung, Grafik-Preset Ultra
Star Wars OutlawsDLSS Performance, Grafikqualität Ultra
Steam
Baldurs Gate 3720pDX 11, Vsync aus, Preset Ultra
City Skylines 2Vsync aus, Grafikqualität Hoch, DLSS maximale Leistung
CyberpunkReflex aus, Vsync aus, RT Niedrig
Frostpunk 2Vsync aus, unlimited FPS, DLSS Ultra Performance, Preset Ultra High
F1 2024DX 11, Vsync aus, Preset Ultrahoch, Reflex aus, Nur TAA
Ghost of TsushimaPreset sehr hoch, Zusatzoptionen aus
Homeworld 3Grafik-Preset Hoch, DLSS
Senuas Hellblade 2DLSS Ultra Leistung, DLSS, Preset: Hoch
Horizon Forbidden WestGrafik Sehr hoch, Checkbox-Features aus
Dragons Dogma 2Preset hoch
OutcastDX 11, DLSS Performance, FPS max aus, Qualität Ultra
StarfieldGrafik Ultra, Vsync aus, Upscaling aus, Reflex aus, VRS aus
Warhammer Space MarinesDLSS Ultra Leistung, Preset Max, Vsync aus

Ich weiß also nicht, wie du auf Low Settings kommst.
In Spielen wie Avatar, die in 4K mit DLSS Quality nur ~80 fps mit einer RTX 4090 liefern, kämen dann mit 40 CPUs vermutlich 40 Balken der gleichen Länge raus, komplett am Thema des CPU-Tests vorbei.
Soll man dann zur jeweiligen CPU die Auslastung posten? Getreu dem Metto, warum einfach, wenn es auch kompliziert geht...

Klar gibt es dann noch ein paar Settings die extra CPU-Leistung brauchen, dafür musst du dann schon in die jeweiligen Techniktests der entsprechenden Spiele gucken, z.B. Spider-Man.
 
  • Gefällt mir
Reaktionen: catch 22
Nun, das war ja zu erwarten. Reinfall mit Ansage, sozusagen.

Aber ich sehe das ehrlich gesagt sogar halb so schlimm. Es ist deutlich zu erkennen, dass Intel endlich mal an der Architektur arbeitet und deutliche Verbesserungen in Punkto Leistungsaufnahme und Effizienz bringt. Als Basis für weitere Generationen ein wichtiger Schritt!
 
  • Gefällt mir
Reaktionen: SVΞN
@RobinSword und wenn du in 4K mit min. 180FPS zocken willst, siehst du dass dies selbst mit einer 4090 nicht drinne ist und du dann halt dafür ggf. die Regler auf high oder sogar medium stellen musst, um dann mit deinem neuen 7800X3D diese FPS erreichen zu können, wobei da dann ggf. auch dein 5800X3D für gereicht hätte mit 160FPS in ultra Details sowie DLSS

und das siehst du wie gesagt nicht aus nem CPU Test, selbst wenn du mit einer 4090 bei ultra Details mit max. 120FPS benchst, und so musst du das mit jedem anderen Game dann sehen und genau deshalb wird in "unrealistischen" 720P getestet, damit die Grafikkarte nicht die Ergebnisse limitieren in hohen Auflösungen

echt ein Krampf in jedem CPU Test die selbe Leier runterspielen zu müssen und das bei jemand der hier schon seit 2004 am Start ist...
Ergänzung ()

in drei Seiten ist das geschriebene eh wieder obsolet, weil irgendwer wieder ankommt und kommentiert "löl unrealistischer 720P Test"...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aduasen und catch 22
MehlstaubtheCat schrieb:
@RogueSix

Das was @Jaffech geschrieben hat, ist korrekt!
Für RAM-OC Tests ist Prime95 nicht zu gebrauchen.
Als Systemtests mittlerweile auch nicht mehr die Nummer 1,
dafür nimmt man den Y-Cruncher.
TM5 oder Karhu, alles andere ist nicht aussagekräftig beim RAM-OC testen.


Gruß
Mehlstaub

Wäre sinnvoll gewesen meinen Beitrag komplett zu lesen, auch wenn er lang war: Ich kann Dir aus EIGENER ERFAHRUNG zu 100% sagen, dass Karhu ein Haufen Sch... ist. Hätte ich mich auf Karhu verlassen, wäre mein System immer noch instabil gewesen.

Ich hatte wie zuvor gesagt genau den Fall, dass Karhu weit über die 10000% coverage hinaus null Fehler anzeigte, aber in Prime dann trotzdem wieder Worker ausgestiegen sind.

Im Übrigen kann man bei Prime wie gesagt Large FFTs für den RAM testen. Dagegen ist zumindest ein Karhu ein Micky Maus Test. Prime Large FFTs geben es dem RAM richtig dreckig :D .

Sorry, aber man merkt, dass Ihr keine Ahnung von Prime habt, sonst würde man nicht so einen Quatsch behaupten, dass Prime nicht für RAM/CPU/OC Stabilitätstests geeignet ist.
Auch beim Torture Test werden übrigens die RAM-lastigen Large FFTs getestet. Deswegen steht beim Torture Test auch der Zusatz "blend" dabei, weil hier alle "Belastungen" gemischt werden (RAM, CPU/IMC usw.).

Den Y-Cruncher kann man natürlich AUCH nehmen, aber Prime war, ist und bleibt die Königsdisziplin in Sachen Stabilitätstest. Das ist einfach Fakt.

Den meisten Leuten schmecken nur die Ergebnisse von Prime nicht, weil Millionen von OC Gamer Kiddies sich kaputt ärgern, wenn ihr "endstabil" geglaubtes Overclocking dann in Prime doch wieder die Grätsche macht.
Daher nutzen viele inzwischen die unzuverlässigeren Alternativen wie Karhu oder Y-Cruncher, weil diese Programme ihnen die gewünschten Ergebnisse liefern statt wie Prime die schonungslose Wahrheit einer Instabilität offenzulegen.

Bitte mal mit Prime und dessen Funktionsweise beschäftigen. Das Ur-Programm mag alt sein und die Gamer-Kiddies werden natürlich durch den Zusatz "95" gleich abgeschreckt (boooaaahhh LeTzTeS jAhRtAuSeNd Digggaaaa!!!!111), aber die Methodik ist etabliert und bewährt und sie wird gerade wegen ihrer Funktionsweise/Methodik auch nie an Aktualität und Zuverlässigkeit verlieren.

Nur ein System, das Prime-stable ist, ist wirklich stabil. Fakt. Das Einzige worüber man da streiten kann, ist wie lange Prime laufen muss, um eine Stabilitätsaussage zu treffen. Die einfache Regel lautet: Je länger, desto besser, aber ich würde als Minimum über Nacht acht Stunden ansetzen, besser zehn bis zwölf. Alles darüber hinaus ist dann wirklich Bonus für die, die es ganz genau wissen wollen.
 
Da muss ich wohl meine Unwissenheit schlucken und weiter ziehen! :D
Wenn du nur wüsstest, was mein Beruf ist und was ich jeden Tag zu tun habe.

Gruß
Mehlstaub
 
Zuletzt bearbeitet:
Wau schrieb:
nur um damit 99% des Tages im Computerbase Forum zu posten.

Wenn man selber zu unfähig ist IDLE zu erkennen, kann man Windows sagen, es soll den Monitor nach 5 min im IDLE ausschalten... hier sollte auch der verblendetste merken, warum vor dem PC zu sitzen, wenn er idled, ziemlich komisch als Argument wirkt.

Alles andere ist kein IDLE aber lass ihnen wenigstens diesen einen Strohhalm...
 
ElliotAlderson schrieb:
Die Effizienz wurde besser und zwar massivst.
In Deiner/INTEL Welt vielleicht !
Im Vergleich zum Marktbegleiter massivst "Banane" ... :lol:
 
dernettehans schrieb:
Beruf sagt oft nichts über Kompetenz aus, leider. Besonders in der "IT".
Mit einem kleinen Unterschied!
Hätte ich die Kompetenz nicht, könnte ich die kleine Nische in der "IT" in der ich mich befinde,
nicht einmal ausüben. Da braucht es viel wissen, mehr als in anderen "IT" Bereichen.
-------------------------------------------------
Schon komisch, was manche hier als "IDLE" ansehen!
Idle ist der Betriebszustand, in dem der PC absolut gar nichts tut,
gleich nach dem Start ohne Arbeit einfach Desktop, das ist Idle.
Alles unter < 1 % CPU-Last

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: Aduasen
HerrRossi schrieb:
Was genau meinst du mit "Murks"?
Ich habe bisher kein Board gefunden, was ne "ordentliche" Ausstattung an schnellen USB-Anschlüssen (vorne und hinten) sowie ausreichend schnelle PCIe Slots bietet, ohne gleich über 300eur zu kosten.
Vielleicht Stelle ich mich nur an, aber die z890 wirken da potenter und besser ausgestattet im Preisbereich um die 250eur. Da wirkt AMDs Plattform schon etwas wie Murks. Zumal sich AMD 0Mühe gemacht hat, die Technik nach 2 Jahren zu verbessern.
Ergänzung ()

ben12345 schrieb:
Beide Prozessoren sind auch für jedes Spiel mehr als ausreichend .
Das stimmt schon. Der 9700x scheint am Ende der bessere Allrounnder zu sein. Betreibt man ihm bei 105 watt, sollte er in Anwendungen in etwa das 245k Niveau erreichen.
 
Zurück
Oben