Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

johnieboy schrieb:
:lol: Nein defintiv nicht und wenn du das Video tatsächlich angeschaut hättest anstatt zu flamen wüsstest du auch warum in diesem Fall
V.a. hat Steve das gestern schon angedeutet, als er
das Setup für die Strommessung ausführlich vorgestellt hat.

(soll kein Schuss gegen CB sein, ich liebe eure Tests. Aber: props where props are due!)
 
TechFunk schrieb:
İch weiss, ich werde dafür gesteinigt, ist ja hier eher AMD Seite (die Community nicht die Redaktion), aber ich bin beeindruckt.

İst es DER grosse Wurf: İCH finde ja. Ja ich hab mir die Balken angeschaut!!


Wenn das kein Sarkasmus war: das musst du jetzt erklären!
Sehe gerade noch das Video von HWU, dass der 285K in Spielen teils hinter den 12600K fällt und der 7800X3D dann mehr als 50% schneller ist ist schlicht absurd schlecht (CP2077, HW3, Plague Tale: Requiem...).
Die neue 600€-High-End-CPU hinter einer Mittelklasse-CPU der Vor-vor-vorgänger-Generation ist irgendwie kein so großer Wurf.
 
  • Gefällt mir
Reaktionen: Dittsche, nyster, eXe777 und eine weitere Person
Brrr schrieb:
Ja, ich hatte x mal wieder ausgeschaltet, memory module raus, andere memory slots ausprobiert etc. Am schluss war es einfach nur ich hatte nicht lange genug gewartet. Ist aber irgendwie auch schlecht gelöst, könnte das Ding nicht wenigstens ein Bild ausgeben wo drauf steht Memory Training oder so?
Ok ich trink nach dem EXPO aktivieren einfach nen Kaffee :jumpin:
 
  • Gefällt mir
Reaktionen: Sherman789
hmm...der interessanteste part am testartikel war die sache mit den cudimm's... :D
 
RogueSix schrieb:
Die Frage ist doch eher: Wer will NICHT von dem degenerierten Hochfrequenzkernschrott auf Qualitätshardware wechseln?
Installier doch einfach das Microcode Update, bzw. tausche die CPU, sollte sie degeneriert sein. ;)
 
Danke für den Test!
Sehr ernüchternd. Ich hatte etwas mehr erwartet.
Somit wird mein 13600K und die Plattform noch ein weilchen bleiben.
 
Kosto10 schrieb:
Also ich würde die neue Intel CPU noch nicht abschreiben. Ich zocke in 4k und da ist die CPU nicht so interessant. Da die Grafikkarte der limitierende Faktor ist.
In den 1% Lows merkt man den Unterschied.
Die pauschale Aussage, das die Grafikkarte in 4k der limitierende Faktor ist falsch. Auch in 4K willst du die schnellste CPU, die du kriegen kannst.
 
  • Gefällt mir
Reaktionen: Volvo480
iPat1337 schrieb:
Muss ich hier jetzt zwei Jahre lang, bei jeder CPU Diskussion, lesen wie gut der idle Verbrauch von Intel im Vergleich gut AMD ist?
You know the answer . :daumen:
Es war zu Bully -Zeiten auch mal die Diskussion über Maximalverbrauch unter Last ein beliebtes Thema.
Möglicherweise warns die selben Leute. ^^
Ich vergleich das immer mit den iPhone Fans wo seinerzeit Features von Androiden ja auch mit dem beliebten "braucht kein Mensch" bezeichnet wurden..
NFC: Wozu ?
Display über 4 Zoll: Wozu? ich will kein Tablet am Ohr, lässt sich nicht mit dem Daumen bedienen
Wireless charging: Wozu? Schlecht für den Akku (wird warm) und ist langsam
Wasserdicht/IPxx: Wozu? Ich kann auf mein Telefon aufpassen.
Ich behaupte mal frech dass der Anteil der Interessenten heutzutage an einem iPhone4 ziemlich gering sein dürfte, auch wenn ein nagelneuer Bionic A18 drinn steckt.

Nunja, so sucht halt jeder etwas um seine Kaufentscheidung in den Foren ins beste Licht zu stellen.
Das fängt bei Mäusen an und hört bei Grafikkarten auf.
Grundsätzlich gibts ja nicht unbedingt was dagegen zu sagen, schlimm wirds dann nur wenns zur "Hersteller-Religion" wird, und die vermiest es mir in letzter Zeit immer öfter in Kommentarthreads zu schauen.
 
  • Gefällt mir
Reaktionen: Enyo79 und iPat1337
Cr4y schrieb:
Will im Videoschnitt (Hobby) von FullHD und .264 auf 4k und h.265 wechseln. Und mein aktuelles System (intel i7 6700) kann sowas noch nicht Mal abspielen...

Hast du mal geschaut, ob es nicht auch eine günstige Intel Arc Karte im bestehenden System tut? Die sind bei kreativen nicht unbeliebt. (sry OT)
 
  • Gefällt mir
Reaktionen: Mr.Zweig und djducky
Endlich ist der P4 zurück! Nur das sich diesmal der P3S als 7800X3D tarnt.

Eventuell kommt Intel ja über den Preis.
 
  • Gefällt mir
Reaktionen: Dittsche
Erwartbares Ergebnis, wenn ich es auch nicht wirklich verstehe bei einem solchen Sprung in der Fertigungstechnik.

Was mir gefällt ist die hohe Bandbreite, welche Z890-Bretter liefern sowie die Spiele-effizienz.

Schade, dass im Multicore so selten auch mal mit reduziertem powerlimit getestet wird. Da kann man viel besser sehen, wie effizient man die Exemplare abseits ihrer Standard-Limits wirklich bekommt.

Immerhin ist mal wieder so etwas wie Konkurrenz da, nur dafür müssen die Preise fallen. Ich sehe jetzt schon ein gewisses Forenmkitglied mit seinem Strommessgerät, der 100€ Mehrpreis mit 10€ Stromkostenersparnis pro Jahr rechtfertigen will.

Man muss aber einfach sagen: Wer einen Work/Game Hybriden mit hoher Bandbreite will, der hat mit einem 265K jetzt eine verdammt gute Wahl. Und Quicksync gibt es obendrauf.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Mr.Zweig, Sbibi und 2 andere
Luxmanl525 schrieb:
Tja, Pustekuchen. Intel bestätigt also die Praxis vergangener Jahre mehr als höchst eindrucksvoll, nämlich daß deren Vorab-Prognostizierungen nichts anderes als Luftnummern sind. Jedenfalls in weit überwiegendem Maße.
Welche zum Beispiel? Ich finde die Ergebnisse sehr nah an den Intel Benchmarks.
Du musst bedenken hier wurde Windows 2024H2 getestet, was 5-6% auf Arrow Lake kostet.
Kommen diese noch oben drauf, dann entspricht das ziemlich genau den Intel Ergebnissen aus den Folien.

Der 7800X3D bleibt aber mindestens 5% schneller und AMD hat das Gamingduell mit dem 9800X3D klar gewonnen.
 
  • Gefällt mir
Reaktionen: Pisaro
iPat1337 schrieb:
Muss ich hier jetzt zwei Jahre lang, bei jeder CPU Diskussion, lesen wie gut der idle Verbrauch von Intel im Vergleich gut AMD ist?
Hoffentlich, dann weiß man wenigstens sofort wer einer dieser Trolle ist auf deren Meinung man nichts geben sollte.

Im Ernst, wenn man sowas (idle, Verbrauch beim Office und surfen) als wichtigen Kaufgrund sieht ist Alder Lake die bessere Wahl als Arrow Lake, da deutlich günstiger. Ne 4080 sollte da auch locker mit gefüttert werden können.
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Sherman789
Zuerst dachte ich: Was für Müll Prozessoren.

jetzt ein paar Stunden später: Eigentlich ein sinnvoller Neustart von Intel, zumindest wenn man auf Performance pro Watt im Vergleich zum Vorgänger schaut. Darauf kann man erstmal aufbauen. Kommt mir so ähnlich vor wie der "reboot" von AMD nach dem FX Debakel.
 
  • Gefällt mir
Reaktionen: nyster, danyundsahne, gustlegga und 2 andere
Intel macht einen massiven Effizienzsprung. Der 3D-V-Cache ist halt nicht so einfach aufzuholen. Aber ich bin zuversichtlich, dass das in kommenden Generationen wieder aufgeholt wird :)
 
  • Gefällt mir
Reaktionen: mscn und danyundsahne
Grundgütiger schrieb:
Eventuell kommt Intel ja über den Preis
Das wäre schön für den Markt. Aber der neue Prozess bei TSMC kostet einem Haufen Geld - den Preiskampf gewinnt Intel niemals.

Dazu stehen die Fabs nun ungenutzt rum, kosten weiter Geld...sieht nicht gut aus für preiswerte CPUs.
 
  • Gefällt mir
Reaktionen: nyster
Ich möchte mich bei Intel sowohl als auch bei AMD bedanken.
Meine CPU bleibt ein weiteres Jahr "aktuell".


Die neuen Generationen sind Kosmetik und hoffentlich eine Ballvorlage für das nächste Jahr.
Bin dann nächstes Jahr im September/Oktober wieder am Start wenn es neue Generationen gibt.
 
Framue_ schrieb:
Sorry CB, aber ich finde es absolut lächerlich das immer wieder als Maßstab in Tests zu verwenden und damit dann auch noch ein Urteil über eine CPU abzugeben, das viele Leser fehlleitet.
Echt jetzt in 4 Jahren noch nicht über das Video gestolpert?
 
  • Gefällt mir
Reaktionen: Mr.Zweig und Sherman789
djducky schrieb:
Ich sehe jetzt schon ein gewisses Forenmitglied mit seinem Strommessgerät, der 100€ Mehrpreis mit 10€ Stromkostenersparnis pro Jahr rechtfertigen will
Nö, mein 265k geht ungeöffnet zurück, wobei mich Z890 echt gereizt hätte (HDMI kann 4k@120, Thunderbolt)
 
Zurück
Oben