News Intel Core Ultra 9 285K: Gaming-Benchmarks vs. 14900K, Ryzen 9000 & Specs geleakt

Allein weil die Prozessoren die Leistung nicht auf Dauer mit machen muss ja Intel runter mit der Power :)
 
stefan92x schrieb:
Woher kommt eigentlich bei so vielen (du bist ja bei weitem nicht alleine) die Annahme, dass AMD X3D nur als Reaktion auf Intel rausbringen wollte und nicht schlicht und einfach dann, wenn es fertig ist (wonach es halt eher aussieht)?
Das Jahr hat viele Wochen und Monate und es wohlmöglich nicht mal einen Monat nach Intels neuen CPUs rauszubringen lässt mich und viele andere da schon zu diesem Schluss kommen.
Ich mein, AMD steht mit Zen5 jetzt auch nicht besonders gut da, vor allem weil der 7800x3d ja nun wohl auch langsam aus dem Handel verschwindet (wenn man sich die Preise anschaut).

SavageSkull schrieb:
Je größer der Vorsprung ist, umso eher kann man Leute vom Wechsel auf einen 9800X3D überzeugen - und tendenziell ist der Vorsprung umso größer, je früher man damit auf den Markt kommen kann.
Ja klar, das kommt da noch hinzu, zudem will AMD aber auch Intel Kunden abgreifen, deshalb wird sicherlich vor dem Launch der neuen Intel CPUs noch die Ankündigung zu den neuen x3ds kommen.
 
kicos018 schrieb:
Die Folie mit dem 7950X3D zeigt auf der linken Seite Diagramme zu Spielen und auf der rechten zu Anwendungen. Und die Spieleauswahl ist identisch zu denen, mit denen der 9950X verglichen wird.
Habe ich danach auch gesehen. Allerdings ist die Auswahl dort extrem eingeschränkt.
kicos018 schrieb:
Hier jetzt, bei zwei geleakten Folien, ein abgekartertes Marketingspiel reinzuinterpretieren zeigt lediglich auf, dass Clickbait bei dir wunderbar funktioniert.
Muss es immer gleich persönlich werden? Kann ich auch: Bei Folien des Herstellers kein abgekartertes Marketingspiel zu erwarten zeigt wie naiv du bist.
 
Neodar schrieb:
Aber auch AMD könnte da noch ordentlich optimieren.
Hat AMD doch beim 9000er-Release gemacht und dafür ordentlich Dresche bekommen. (Auch wenn das Suffix "X" hinsichtlich Modellpalette wieder vollkommen idiotisch war.)

Was hindert dich daran, die Powerlimits (wenig Aufwand) oder die Spannungskurven (mehr Aufwand) händisch anzupassen und die CPU in einem effizienteren AP zu betreiben?
 
  • Gefällt mir
Reaktionen: Hovac, blackiwid und SpartanerTom
Ayo34 schrieb:
Sollte es so kommen, verstehe ich es einfach nicht. Neue Architektur + TSMC3nm und man schafft die Geschwindigkeit vom 14900k nicht?
Nach allem was bekannt ist verwendet Intel N3B und N3B ist was Performance und Power angeht auf Augenhöhe mit N4P.

Erst N3E bringt mit DTCO den eigentlich Schritt den man von einem Node erwartet.

Ayo34 schrieb:
Wie schnell wäre ein 14900k portiert auf den TSMC 3nm Prozess?
Die Frage ist wie viel würde der verbrauchen?

Die Prozesse bei Intel sind traditionell auf Performance optimiert. Die Prozesse bei TSMC auf Area und Power optimiert.

Was erwartest Du wenn Intel einen Prozess verwendet der für Apple Mobil SoC entworfen wurden?
 
Wie schön man sich die CPU für Workloads und non-X3D rausgesucht hat von AMD.

Intel ist echt der letzte Haufen wenn es um saubere PR / Marketing / Benchmarks geht.

Sobald X3D ins Spiel kommt oder eventuell sogar 8/16er mit mehr Taktreserven nach oben (?!), schauts wieder dunkel aus.
 
Krik schrieb:
Hat man bei den Ryzen 9000 gemacht und es wurde Gift und Galle gespuckt. Man sah sich sogar genötigt, für zwei der CPUs einen 105-Watt-Modus einzuführen. 🤷‍♂️
Es kommt immer drauf an, was der Ausgangspunkt ist. Wenn man vorher schon effizient war und mehr Leistung verspricht, aber dann einfach hauptsächlich mehr Effizienz liefert, enttäuscht man nun mal.

Bei Intel war das etwas anders, denn da war die Effizienz und Verbrauch gemessen als der Leistung trotz E-Cores nicht angemessen. Wenn man einige Kerne als effizienter und mit weniger Power bewirbt, aber insgesamt dann deutlich Strom hungriger ist, dann passt ja was nicht. Was die Leistung angeht, bei Intel treten 8 P-Cores gegen teilweise 12 bis 16 gleiche Kerne bei AMD an. Die E-Cores sind zwar mehr, aber dafür hat AMD wiederum HT und Intel nicht mehr. Das Gesamtprodukt muss auch für den angestrebten Zweck passen.

Ich habe z.B. den 7950 X3D wegen der Effizienz beim Gaming, aber ich wollte auch bei Anwendungen nicht nur 8 Kerne mit geringer Leistung in Anwendungen haben, weshalb es der 16 Kerner sein mußte und nicht der 7800 x3D. Das Produkt muss zum Nutzer und zum Einsatzzweck passen.
 
Zock schrieb:
Da ist er also der Moment wo x86 am Ende ist. Erst war das Ghz rennen dann wurden die Caches vergrößert und dann die Kernzahlen. Jetzt sind sie am Ende, AMD und Intel. Ich bin mal gespannt. Wahnsinn ich hätte nicht damit gerechnet das es jetzt schon soweit ist. "2024"

Das ist meiner Erachtens schon wieder der Punkt, an dem man Software einfach mal in die Breite entwickeln müsste.

Wir sind in kurzer Zeit von Intels "4 Kerne 8 Threads sind genug" zu 16C/32T gekommen dank AMDs Ryzen CPUs. Intel hätte uns locker bis 2030 mit 6/12 zu Tode gemolken mit dem x-ten 14nm Refresh des Refreshs eines Refreshs. Was ein Meme diese Firma geworden ist.

Leider ist die Software inkl. vieler Games komplett bei 2-4 Kernen gescheiter Auslastung gut ausgelastet und alles drüber bringt nicht viel.

Battlefield ist einer der Titel der seit je her viele Kerne / Threads nutzt und dazu noch Takt mag.

Aber in der Regel wollen Games nur eins - 1-2-3-4 Kerne mit max. Takt und hoher IPC.

Bei Software ala Lightroom, Photoshop, Affinity Photo etc. sieht es leider ebenso aus.

Da langweilt sich die CPU ala 5950X oder 7950X, 9950X zu Tode. Beim Gaming ebenso.



Nicht die CPU Leistung ist das Problem, sondern die genutzte Software und deren Optimierung, die irgendwo beim Intel 7700k hängengeblieben ist .... bis heute.
 
  • Gefällt mir
Reaktionen: SP-937-215, Celinna, Dittsche und eine weitere Person
viel Spaß beim frickeln mit den neuen Intel Kisten... mal kucken welche Gimmicks Intel diesmal auffährt... Selbstzerstörung war ja ganz lustig. Jedes Update brachte Spannung, ob die Leistung noch hält...

Nun kein HT und trotz neuer Architektur und bester Fertigung nur Mittelmaß...
Bin mal gespannt wie sich die 9000er nach den ganzen Software Optimierungen gegen Intels neuer Platform präsentiert.

Und: Weiß man schon wie lange man die superduper neuen Mainboards dann fahren kann? Bis man ne brauchbare CPU darauf bekommt scheint es ja noch zu dauern :rolleyes:
 
E1M1:Hangar schrieb:
Aber in der Regel wollen Games nur eins - 1-2-3-4 Kerne mit max. Takt und hoher IPC.
Cities Skylines 2 ist eine der wenigen Ausnahmen. Das kann tatsächlich mit 64 Kernen umgehen.
Aber ja, die Spiele haben überwiegend immer noch eine Game-, Grafik-- und Sound-Loop. Das wären dann 3 Threads und tja... die anderen 13 Kerne langweilen sich dann.
 
  • Gefällt mir
Reaktionen: Celinna
Krik schrieb:
Cities Skylines 2 ist eine der wenigen Ausnahmen. Das kann tatsächlich mit 64 Kernen umgehen.
Aber ja, die Spiele haben überwiegend immer noch eine Game-, Grafik-- und Sound-Loop. Das wären dann 3 Threads und tja... die anderen 13 Kerne langweilen sich dann.

Und dennoch miese Performance für den Look abliefert. :D

Das Game treibt mich in den Wahnsinn. Fehlkauf der letzten 5 Jahre. Ja es läuft mit nem 5800X3D oder 5950X gut genug mit ner 4080 Super, aber für das was da läuft... leider inakzeptable wie stabil das alles ist und wieviel fps rumkommen.
 
Sollte es tatsächlich so kommen und Arrow Lake nur gemäß den noch geschönten Leak-Folien performen wäre das schon ziemlich schwach: weniger Spiele-Leistung als zuvor, nicht einmal AMD Gen4 eingeholt. Und auch bei den Anwendungen sehe ich eher schwarz für Intel.
Und ob Arrow Lake beim Verbrauch tatsächlich konkurrieren kann, trotz fortschrittlicherem 3nm Prozess von TSMC bleibt auch noch offen.
Das bedeutet zudem höhere Produktionskosten, so dass es für AMD ein leichtes sein wird Intel zu unterbieten und trotzdem höhere Margen einzufahren. Der erhoffte "Game-Changer" wäre Arrow Lake also buchstäblich nicht.
Eines haben Intel und AMD mit der neuesten Generation gemein: es geht bei den Architektur-Änderungen hauptsächlich um Server und weniger um Desktop.
 
Zuletzt bearbeitet:
kicos018 schrieb:
Hier jetzt, bei zwei geleakten Folien, ein abgekartertes Marketingspiel reinzuinterpretieren zeigt lediglich auf, dass Clickbait bei dir wunderbar funktioniert.

Naja was heißt Marketingspiel.

Es wäre nicht das erste Mal, dass vermeintlich Folien geleakt werden und am Ende waren es keine echten internen Folien. Dann stellt sich der Leak als falsch heraus und das wars.
 
Ayo34 schrieb:
Sollte es so kommen, verstehe ich es einfach nicht. Neue Architektur + TSMC3nm und man schafft die Geschwindigkeit vom 14900k nicht? Wie schnell wäre ein 14900k portiert auf den TSMC 3nm Prozess?
Schon mal daran gedacht, dass man den Verbrauch gesenkt hat und deswegen den 14900K nicht knackt?
Man hat sich hier immer über die 250W+ von Intel aufgeregt, jetzt macht Intel was dagegen und man motzt immer noch...
 
Neodar schrieb:
Der Rest der Welt braucht die Leistung nicht und wäre mit weniger Leistungsaufnahme sicherlich glücklicher
Dem Rest der Welt ist die Leistungsaufnahme komplett egal.
Es sind nur die Deutschen (Consumer), deren Strom so teuer ist, die ein ernsthaftes Auge drauf legen...
 
Ayo34 schrieb:
Sollte es so kommen, verstehe ich es einfach nicht. Neue Architektur + TSMC3nm und man schafft die Geschwindigkeit vom 14900k nicht?
Ein 14900K läuft ja auch nicht stabil :evillol:
Und es ist auch nicht sooo außergewöhnlich, dass eine neue Architektur + neue Fertigung im ersten Anlauf überall besser ist.
Siehe Nehalem, siehe Broadwell, siehe Ice Lake
 
hm hoch ist was anderes das stimmt. Kann wer von euch chinesisch weil ich kann das nicht lesen. Wo steht handbrake in dieser liste also bei wie viel % Leistung ob minus oder plus. Und der Rest was steht da denn so?
 
Bulletchief schrieb:
Es sind nur die Deutschen (Consumer), deren Strom so teuer ist, die ein ernsthaftes Auge drauf legen...
Es geht nicht nur um Stromkosten. Es geht auch um den Kühlungsaufwand. Mehr Stromverbrauch bedeutet mehr Ausgaben für Kühlung und oft auch mehr Lautstärke. Das sind Aspekte, die sind überall auf der Welt relevant.
 
  • Gefällt mir
Reaktionen: iron_monkey, Celinna, danyundsahne und 2 andere
Hm… bin mal gespannt, ob Arrow Lake S erfolgreich wird. Das Leistungs-Plus-Argument im Vergleich zum Vorgänger entfällt ja offenbar in vielen Bereichen. Wer jetzt schon 13/14th Gen besitzt wird nicht nur wegen der gesteigerten Energieeffizienz wechseln. Zumindest solange nicht, bis eventuell die eigene CPU den Siliziumtod stirbt, der Raptor Lake ja anhaftet, aber mit den Mitigstionsmaßnahmen dürfte sich Arraw Lake aussitzen lassen, wenn nicht sowieso so viel Vertrauen verspielt wurde, dass zu AMD gewechselt wird.

Unterm Strich sehe ich Arraw Lake mit gemischten Gefühlen. Quo vadis, Intel? Die Zeit wird es zeigen. Ich drücke die Daumen.
 
Zurück
Oben