Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

Ayo34 schrieb:
Gaming PCs nicht zu gebrauchen
Erläutere das Mal was heißt nicht zu gebrauchen ?

Sicher die neue CPU ist kein reisser aber nicht zu gebrauchen hört sich sehr schwer verblendet an warum muss man in solchen Diskussionen immer sein fandom mit reinbringen ...

Mich stört jedesmal an der Aussage zu viel Strom das scheinbar keiner begreift das so eine CPU im Jahr den Preis nicht fett macht .... Jeder der scheinbar sich an dem Strom Verbrauch so dermaßen hochzieht hat wohl keine Grafikkarte im Rechner ......

Mal ehrlich jede halbwegs starke graka verbraucht 200watt + ehr 400 Watt und da wird sich beschwert wenn die cpu was nimmt

Ich bin auch vom Release enttäuscht und deshalb ist es kein Grund jetzt von der z790 Platform zu wechseln aber dennoch interessante weiterentwicklung hoffe Mal bei der nächsten Generation kommt mehr
 
  • Gefällt mir
Reaktionen: mscn und TechFunk
HAse_ONE schrieb:
@Verak Drezzt so würde ich das jetzt nicht sagen :D. Aber alle reden von "uuuhhh sooo viel Effizienter" etc. da wäre es interessant zu schauen, wie viel von dem Effizienzsprung noch bleibt wenn man einen 14900K etwas einbremst.
Genau das steht hier ja im Test. Jetzt musst du ihn nur noch lesen. Schaffst das ? :daumen:

Im Cinebench schafft der 285K bei 60W das wofür ein 14900K noch rund 110W braucht. Noch Fragen ?
1729829949114.png
 
  • Gefällt mir
Reaktionen: Blaze1987, Volvo480, Krautmaster und eine weitere Person
Phoenix3000 schrieb:
Einige scheinen sich hier über die Intel-Schwäche zu freuen.
Ich befürchte jedoch ein Monopol, dass sich immer mehr auf die Preise auswirken wird. Ähnlich wie bei den GPU.
Die nächste Gen von Intel wird wieder mithalten können.

Das Arrow Lake nicht der Bringer wird hat sich ja abgezeichnet.
 
Phoenix3000 schrieb:
Einige scheinen sich hier über die Intel-Schwäche zu freuen.
Ich befürchte jedoch ein Monopol, dass sich immer mehr auf die Preise auswirken wird. Ähnlich wie bei den GPU.
und das nach xx Jahren Intel-Monopol, inkl. unfairsten Methoden
 
  • Gefällt mir
Reaktionen: Dittsche und wolve666
MoinWoll schrieb:
Da hab ich den Abstand sogar noch unterschätzt, wenn der 7800X3D schon 19% schneller ist

Hm schneller ja aber in der entsprechenden Auflösung dann gleichschnell ? Habe jetzt auf die schnelle nicht gefunden in welcher Auflösung getestet wurde aber wahrscheinlich 720p um auch die CPU zu testen .....

Wird sicher gleich jemand sagen es ist ein cpu Test .... Das verstehe ich auch mich würde aber interessieren wie sich prossesoren bei entsprechender Auflösung verhalten .... Bringt es was oder eben nicht
 
die cpus verhalten sich in jeder auflösung in etwa identisch.

wie gesagt, du kannst eben keine aussage über die cpu bringen wenn sie von der gpu limitiert wird.
 
  • Gefällt mir
Reaktionen: danyundsahne und Grundkurs
Als Ergebnis mit Fertigungsvorteil gegenüber AMD bei TSMC, ist das Ergebnis schon enttäuschend.

Auch was man sich bei der Kernanordnung gedacht hat, Latenzen sind seit Ewigkeiten ein Problem bei diesem Ansatz und dann baut man den so auf... Klar wird man mit Windows-Updates vom Task Scheduler noch was rausholen können, aber die Welt wirds auch nicht mehr retten.

Bin gespannt wie es aussieht wenn die Ryzen next gen auch auf der Fertigung sind. Aber zumindest ist es ein Schritt in eine neue Richtung, aus der man was machen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kadett_Pirx
Verak Drezzt schrieb:
@Coeckchen der gude 5775c, wollte ich damals au haben, hatte aber nur nen Z87 Board
Ja ich hatte den 5670c weil das damals der schnellste in Arma 3 war. HT hat dem Spiel ja nüscht gebracht und Arma war die Referenz 😂.
Keine Ahnung warum Intel den Weg nicht weiter gegangen ist.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Volvo480, iPat1337 und eine weitere Person
@Coeckchen war damals sogar am überlegen nen H- oder Z97 Board extra zu holen und hab es dann gelassen und von nem i5 4590 auf nen Xeon1246v3 gewechselt, denke mal dass ihnen die Kosten da es net wert waren

und hatten dahingehend ja auch kein Druck seitens AMD, wäre Zen1 zu der Zeit gekommen, hätte es vielleicht anders ausgesehen
 
  • Gefällt mir
Reaktionen: Coeckchen
dernettehans schrieb:
Beruf sagt oft nichts über Kompetenz aus, leider. Besonders in der "IT".

Außer bei den Spartaner. :D
 
  • Gefällt mir
Reaktionen: Coeckchen
scryed schrieb:
Wird sicher gleich jemand sagen es ist ein cpu Test .... Das verstehe ich auch mich würde aber interessieren wie sich prossesoren bei entsprechender Auflösung verhalten .... Bringt es was oder eben nicht
Kommt auf deine persönliche GPU und Auflösung an, daher wenig Sinn sowas in einem CPU Test zu testen, weil du schon im GPU Test die Werte der unterschiedlichen GPUs für unterschiedliche Auflösungen hast
 
  • Gefällt mir
Reaktionen: Coeckchen
Kenjy schrieb:
Den Sinn von CPU-Tests nicht verstanden. Setzen, 6!
Da hab ich aber jemanden offensichtlich abseits der Sachlichkeit etwas zu hart berührt, ohne dies zu wollen.
Shio schrieb:
Hm komisch. Meine 4090 langweiligt sich in 4k weil mein 5900x nicht hinterher kommt.
Und das idR. bei unter 100fps.

@topic

Immer wieder erstaunlich das es immernoch Leute gibt die CPU Tests nicht verstehen.
Dachte eigentlich das wurde in den letzten Jahren oft genug erklärt...
Bei meinen Spielen nicht! Komm kaum über 40% CPU-Last, während meine 3090 rödelt.
 
Also, die CPUs gefallen durchaus in der Effizienz unten herum und ich hätte mir durchaus eine vorstellen können nach dem Test und dann viel mir wieder auf: Kein AVX512 ...
Dann wirds eben doch nen AMD ... so wird das nichts mit Intel bei, schade eigentlich denn die Effizienz gerade unten herum ist wirklich gut scheinbar.
 
Für mich könnten die CPUs interessant werden. Ich muss nicht jedes letzte % mitnehmen und wenn die Dinger in den Regalen liegen weil sie wenige kaufen und somit der Preis nach unten geht dann könnt ich drüber nachdenken.
Die Zeit und somit der Preis wirds zeigen.
Muss mein altehrwürdiger 8700k weiter werkeln
 
  • Gefällt mir
Reaktionen: luda
Quidproquo77 schrieb:
Igor hat den Verbrauch und Effizienz auch gemessen und kommt in Anwendungen Benchmarksuit Teillast und Blender auf sehr gute Effizienzwerte und bei seinem Testboard ist das mit den Rails irrelevant.
Bei keinem Review/Magazin zieht ein Ryzen 9 9950X@Stock egal unter welchen Umständen bei Volllast mehr als 200 Watt, da die CPU unter Default schlichtweg immer bei 200 Watt PPT gedeckelt wird. Ausser natürlich bei Igors wundersamen Boards mal wieder zieht der 9950X plötzlich 242 Watt...

Den gleichen Quatsch mit PBO hat er schon in früheren Reviews bei Ryzen-Vorgängern abgezogen, damit er die Ryzen-Effizienz stets in Render-Anwendungen versauen kann, da dort der Ryzen 16-Kerner immer bockstark war, ist und bleibt. Ich kenne keinen User oder Reviewer der bestätigen kann, dass @Stock PBO aktiviert ist, ausser bei Igor natürlich. Precision Boost Overdrive muss manuell aktiviert werden um über die PPT hinausgehen zu können. Jahr für Jahr werden die gleichen Märchen aufgetischt.

Generell sind die deutschen Intel-Reviews die unehrlichsten/unauthentischten, wohlwollendsten und selektivsten, vor allem wenn ich Magazine wie GamerNexus, KitGuru oder Hardwareunboxed dagegenstelle. Es verblüfft einen wie ehrlich bzw. "laut" die "denken" in ihren Videos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, eXe777, SweetOhm und 11 andere
Freiheraus schrieb:
Bei keinem Review/Magazin zieht ein Ryzen 9 9950X@Stock egal unter welchen Umständen bei Volllast mehr als 200 Watt, da die CPU unter Default schlichtweg immer bei 200 Watt PPT gedeckelt wird. Ausser natürlich bei Igors wundersamen Boards mal wieder zieht der 9950X plötzlich 242 Watt...
Und wieviele der Reviews haben wirklich mit Hardware am Board gemessen und wie viele haben einfach nur den PPT Wert aus HWInfo abgelesen?
 
Zurück
Oben