News Geekbench-Ergebnisse: Intel Core Ultra 9 285K schlägt AMD Ryzen 9 9950X

DrFreaK666 schrieb:
Glück für Intel dass Zen5 eher schwach ist
AMD könnte immer noch die absurd niedrige TDP höher setzen.
 
  • Gefällt mir
Reaktionen: SweetOhm und _b1nd
fdsonne schrieb:
Jupp, aber ehrlicherweise, gemessen an der relevanten Praxis - wie oft kommt das jetzt genau vor?
Bei einigen sehr oft, bei anderen garnicht... Das kommt halt auf das jeweilige Anwenderprofil an. Für Gamer bringt es wahrscheinlich wenig, aber die Welt besteht halt aus mehr als nur Gamern.
 
Interessant wäre zu erfahren, ob der im Test verwendete Prozessor am Releasetag noch funktioniert oder schon innerlich gegrillt wurde 😂
 
  • Gefällt mir
Reaktionen: JarlBallin und jonderson
fdsonne schrieb:
Nimm die Zahlen von MF und schau dir an, was AMD da aktuell an CPUs verkauft.
Auch da weiß man nicht, ob die Käuferschicht homgen verteilt ist. Große Firmen nutzen da vielleicht auch andere Einkäufer. Die Käuferschicht die ich da im Auge hat, ist aber eh sehr scharf auf die AVX-512 Neuerungen.

Ich möchte den Blick nur etwas weiten, und nicht seine eigene Situation als die Aller vertstehen.
 
Wenn sich das bewahrheitet halte ich es schon fast für Katastrophal, sicher im Multicore vorne aber bei 24 vs 16 core würde man auch mehr als 12% erwarten. Ja ich verstehe Little Cores aber trotzdem ist das nicht die Welt, vor allem da es im Single Core ne Totalkatastrophe ist würde ich da schon auf mehr hoffen.

AMD wird Intel Preislich wohl Unterbieten selbst wenn durch ein Wunder die CPUs gleich teuer sein sollten sind die AMD Mainboards billiger (neuer Chipsatz bei Intel, bei AMD kannst ja die alten billigen Boards benutzen).

Wenn man sich von normalem Ryzen 9xxx schon im Single Core nicht absetzen kann nur gleichstand erreicht, ja dann gute Nacht mit X3D...

Gaming ist damit 100% in der Hand von AMD, und ja nicht nur im Highend, zum einen gibts ja jede Menge andere Generationen von X3D die Preislich tiefer sind aber wie willst da auch nur 50-130 Euro CPUs irgendwelche billigen i5 raus bringen die für Lowprice Gamer interessant sind, dafür ist die Fertigung und die Preise für die Boards schlicht zu hoch da wird man nicht gegenhalten können.

Nun sicher 12% mehr multicore speed sind nett, aber wie gesagt dafür wird man mehr Geld verlangen und dann hast immer noch das CPU Abrauch risiko ist es das wert?

Es wird ne kleine Nische geben von Leuten die diese 12% unbedingt brauchen oder glauben zu brauchen, die dann die ganzen Nachteile in Kauf nehmen.

Aber wie viel Leute wollen wirklich das Risiko mit kaputten CPUs eingehen (ja ich weiß die können auch voll in Ordnung sein, aber man weiß es nicht bei AMD ist man was das angeht 99% auf der sicheren Seite) und höhere Preise zahlen.

Das seh ich daher eher als Zwischenschritt man bringt fast 1:1 mit minimalen verbessererung die Leistung des Vorgängers aber hoffentlich bei deutlich verringertem Stromverbrauch.

Man schließt quasi zu AMD wieder auf nur mit höherem Preis und höherem Ausfallrisiko. Sorry aber ich sehe das als "to little to late".

Das Intel nicht deutlich im Singlecore gewinnen kann halte ich für ne Enttäuschung, weil Preislich wird man nichts reißen können also wenn ichs nicht über den Preis verkaufen will muss es über Leistung gehen, und 12% multicore mit all den Nachteilen finde ich to little to late...
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, jonderson und eine weitere Person
blackiwid schrieb:
Von was fasselst du die 9xxx sind billiger als die 7xxx beim Release.
Zu dem Zeitpunkt konnten die 7000er ohne 3D Cache dem 5800X3D nahe kommen.

Aktuell stand jetzt ist ein 7800x3D nach wie vor eine der schnellsten Gaming CPUs und zieht dem 20-30€ teureren 9700x davon.
 
  • Gefällt mir
Reaktionen: Botcruscher und _b1nd
Mich würde mal interessieren, was Intel mit den neuen CPUs unterm Strich verdient im Gegensatz zur 14000er Generation, die sie ja komplett selbst gefertigt haben. Jetzt geht ja ein gewisser Anteil direkt an TSMC...
 
Der Vorteil der Ryzen lag ja im geringen Verbrauch bei sehr hoher Leistung. Lieber 10% weniger Performance für 50% weniger Verbrauch.
 
  • Gefällt mir
Reaktionen: WinnieW2
Clonedrone schrieb:
Der Vorteil der Ryzen lag ja im geringen Verbrauch bei sehr hoher Leistung. Lieber 10% weniger Performance für 50% weniger Verbrauch.
Ist bei Rechenchips dieser Klasse leider so. Der Zusammenhang zwischen Leistungsaufnahme + Abwärme und Rechenleistung ist annährend exponentiell.
Für 20% höhere Rechenleistung über 20% höhere Taktfrequenz etwa eine Verdoppelung der Leistungsaufnahme.
Ich würde nie, wenn ich es nicht müsste, eine CPU mit über 80 Watt TDP kaufen. Aber der Zenit meiner Daddel-Ambitionen liegt bereits hinter mir...
 
Grundgütiger schrieb:
Zu dem Zeitpunkt konnten die 7000er ohne 3D Cache dem 5800X3D nahe kommen.
Das ist ne Milchmädchenrechnung, die 7xxx gen brauchte damals sehr teuren neuen Ram und der half natürlich dann auch das Ergebnis zu erzielen auch die Boards waren damals noch teurer. Du kaufst ja nicht nur ne CPU und klatscht dir auf die Stirn Ram und Mainboards brauchts dazu auch noch. Daher war es teurer auf 7xxx zu wechseln damals als auf 9xxx heute (egal ob man von irgendwas anderem her kommt oder dem direkten Vorgänger)

Außerdem war deine Aussage nicht das bei Gaming die Nongaming AMD CPUs die Preisleistung gesunken ist deine Aussage war das AMD "die Preise nach oben zieht" und wie viel schneller da die 9000er reihe ist ist für den Wahrheitsgehalt der Aussage irrelevant.
 
Zuletzt bearbeitet:
Krik schrieb:
Der typische Computernutzer hat nicht viele Programme gleichzeitig am Laufen. Der hat sein Vordergrundprogramm (Spiel, Word, Browser, etc.), ein paar Programme im Hintergrund (Discord, Spotify, etc.) und der Rest ist Betriebssystem und Dienste. Da ist gar nicht so viel Varianz drin.
Ein Tag-System, wie ich es angesprochen habe, kann dem Scheduler genau sagen, worauf es Priorität legen soll. Das Vordergrundprogramm bekommt die P-Cores, die Hintergrundprogramme die P- und E-Cores und das OS und die Dienste die E- und SMT-Cores. Oder so in der Art.
Den definierst du?
Ich schau einfach mal nebenbei auf mein Arbeitsnotebook. Da laufen 324 Prozesse in 6400 und bisschen Kleinkram Threads.
Du denkst leider viel viel viel zu high level. Das ganze funktioniert so nicht.
Krik schrieb:
Und genau das ist die mangelhafte Umsetzung, von der ich spreche. Wenn an den Aufgaben keine Information dran hängt, welche Art Leistung unter welchen Umständen benötigt wird, dann kann der Scheduler auch nicht effektiv arbeiten.
Dann setz dich hin und programmiere eine andere Lösung. Du wirst sehr schnell an Grenzen kommen, wo das einfach nicht von außen möglich ist. Der OS Scheduler ist die einzige Partei in der Kette, die dafür sorgen MUSS, dass die Aufgaben, die die Software oben rein kippt, irgendwie in Richtung der Hardware halbwegs passabel adressiert wird. Und auch das ist nur die halbe Wahrheit.
Um irgendwas steuern zu können (steuern = reagieren auf eine Gegebenheit), muss dieses Stück Software nicht nur Hellsehen können. Nämlich was im nächsten Moment passieren wird, sondern es muss auch dafür sorgen, dass das, was im nächsten Moment passieren wird, auch so eingetütet wird, dass es von der Hardware abarbeitbar ist.
Wenn man von viel viel viel zu high level auf viel zu high level runter geht kommt bspw. der Umstand ins Spiel, dass Programmcode strikt sequenziell ist. Der Programmierer (also die Instanz die du meinst, die das alles besser machen kann) schreibt Programmcode in Form von Befehl A gefolgt von Befehl B von Befehl C, ... Was dieser Programmierer heute schon lange nicht mehr weis ist, ob Befehl A jetzt sagen wir Last auf den INT Einheiten erzeugt oder Befehl B Last auf der FPU.
Denn in einer tieferen Betrachtung kommt nach dem Programmcode schreiben ein Compiler, der das ganze in eine der CPU verständlichen Sprache übersetzt. Dann kommt! nochmal erschwerend hinzu, dass die CPU selbst die Aufgaben, die für einen Core/einen Thread bestimmt sind, völlig transparent vom OS, Programmierer oder wem auch immer in sogenannte µ-op zerhackstückelt und im Rahmen der Out of Order und Pipelining Technik für sich ein möglichst effizient abzuarbeitendes Muster erstellt und das dann in die Pipelien einkippt.

Sag mir doch bitte, wie soll das rein logisch funktionieren, wo der Programmierer, der da oben einfach nur Befehle aufschreibt, die dann in einer teils drastisch anderen Reihenfolge abgearbeitet werden und wo er selbst nichtmal weis, wo diese abgearbeitet werden (also in welchem CPU Rechenwerk) auch nur die Möglichkeit hat, sein eigenes zeug zu verändern?
Krik schrieb:
Wenn die Aufgabe dem Scheduler mitteilt, wie kritisch sie ist, weiß er was er wie zu sortieren hat. Einfach nur nach dem Prinzip "Sieh zu, wie du damit klar kommst!" zu arbeiten, ist ineffizient.
Und der Programmierer weiß, wo die meiste Rechenzeit in seinem Code benötigt wird. Dafür gibt es Profiler-Software.
Das hätte zur Folge, dass ALLE Aufgaben sich als besonders kritisch sehen. Was ist damit dann gewonnen?
Per default gibt es eine derartige Form der Prio ja schon. Du kannst für jeden kritischen Task die Prio festlegen. Per default ist erstmal alles auf normal in Windows zumindest. Und wichtigere Sachen können höher priorisiert werden. Aber das ändert am Problem nix, wenn zwei Aufgaben um Rechenleistung streiten.

Nochmal, wenn genug Ressourcen da sind, ist das ja alles gar kein Akt. Weil das OS das von sich aus eh maximal breit zieht. Relevant wird es erst, wenn mehr Ressourcen benötigt als zu der gegenwertigen Zeit vorhanden sind.

Krik schrieb:
Intel hat CPUs mit P- und E-Core und SMT HT auf beiden Core-Arten auf dem P-Core. Im Prinzip hat man damit vier drei verschiedene Core-Arten. Was ich damit sagen will: Android schafft es, mit zwei, drei Core-Arten mit unterschiedlicher Leistungsfähigkeit gleichzeitig umzugehen. Und wenn das OS das schafft, dann kann man etwas ähnliches auch auf x86-Betriebssystemen umsetzen.
Das OS schafft es doch auch bei Intel? Wo ist denn dein Kritikpunkt oder was ist da jetzt dein Standpunkt?
Wir sprechen über das gerade darüber, wie gut das funktioniert. Das Beispiel im Smartphone ist halt keins, weil es keinen Vergleich zulässt zu Technik, die bei gleicher Basis mit anderer Verteilung laufen würde - es gibt keine andere Technik mit gleicher Basis im Smartphone. Das sind dann komlett andere CPUs mit komplett anderen Schwerpunkten, teils Aufbauten usw. usf. Das ist Äpfel mit Brinen.
Krik schrieb:
HT hat man damals damit beworben, dass man bis zu 80% Mehrleistung erreichen kann. Dieses Potential einfach wegzuwerfen, weil der Scheduler kann das nicht effizient verwalten kann, heißt für mich, dass der Scheduler das Problem ist.
Dann verstehst du es leider einfach falsch.
Spielt am Ende aber auch keine Rolle, da es für einen Hersteller nicht darum geht, im Einzelfall "80%" oder wie viel auch immer zu erreichen, sondern im gesamten ein Produkt zu bringen, was für den Markt attraktiv ist. Mit dem Scheduler hat das gar nix zu tun.
Für Intel ist es zumindest im Moment attraktiver einfach die E-Cores zu skalieren, weil sie damit mehr erreichen als auf Biegen und Brechen an SMT festzuhalten, was btw. seit Windows 7 aus 2009! schon Windows seitig nur zweite Geige spielt. Soll heißen, schon Windows 7 hat den zweiten Threads nur wiederwillig benutzt und mehr Kerne den Vorang gegeben.

Unterm Strich sprechen wir über ein Feature, was in der praktischen Umsetzung bei zumindest eh brach liegenden CPU Cores beim Anwender einen nennenswerten Vorteil bringt. Wo die Nachteile bei bescheidener Umsetzung aber voll durchschlagen.
 
  • Gefällt mir
Reaktionen: peru3232 und Piktogramm
  • Gefällt mir
Reaktionen: inge70
Wer kauft jetzt noch Intel CPUs?
 
  • Gefällt mir
Reaktionen: JarlBallin und SweetOhm
@FatalFury Jetzt rein auf PC-Selberschrauber bezogen, oder auf alle PC-Käufer bezogen?
AMD dürfte Probleme haben die notwendigen Produktionskapazitäten einzukaufen. Die Chips von AMD werden von TSMC gefertigt u. die haben begrenzte Fertigungskapazitäten.
 
Zurück
Oben