News Single-Core und Multi-Thread: Core i9-12900KS schlägt Ryzen 9 5950X im Cinebench R23

Tornavida schrieb:
@.Sentinel.

Meinst das bringt was? Selbst bei Screenshots behaupten Die doch weiter die CPU zieht sich >200 Watt rein beim Zocken.
Darum geht es mir ehrlich gesagt nicht.

Ich finde es nur immer wieder schade für dein Einsteiger bzw. unbedarften User, dass es oftmals unmöglich wird an "neutrale" Information zu gelangen, weil hier viele meinen, ihren Markenfetisch austragen zu müssen.

Es ist nunmal so, dass es eben auch Leidtragende aufgrund solcher Dinge gibt.
So gingen z.B. bei uns im Systemhaus dann doch die eine oder andere Maschine zur Untersuchung rein (Ryzen 1), weil man sich die relativ schwache Spieleleistung nicht erklären konnte.
Mit den Aussagen: "Und in den Foren .... und bei den Beratungsthreads ... und hat ja viel mehr Kerne ... top aktuelle CPU usw."

Man meint das hier garnicht böse, unterschätzt aber die Negativauswirkungen, die das tatsächlich real haben kann, wenn man die Dinge nur einseitig darstellt.
 
  • Gefällt mir
Reaktionen: Leereiyuu und Dome87
Ach ,das sind doch die liebsten Kunden für Systemhäuser. Keine Ahnung aber anscheinend kompetent genug die Leistung des Systems anzuzweifeln. Die Meisten reiben sich die Hände ,stellen das Ding nach paar kurzen Tests (wenn es ein gutes Systemhaus ist) für ein paar Tage in die Ecke ,Fertig >Rechnung :daumen:
 
  • Gefällt mir
Reaktionen: .Sentinel.
Tornavida schrieb:
Ach ,das sind doch die liebsten Kunden für Systemhäuser. Keine Ahnung aber anscheinend kompetent genug die Leistung des Systems anzuzweifeln.
Naja- Es waren Kunden, die das ganze über uns bezogen haben. Und es kann ja tatsächlich sein, dass die Systeme ohne das Verschulden der Kunden nicht die gewünschte Leistung liefert oder Probleme macht.

Ich denke mit Grauen an das anfängliche Agesa Gewirr oder die beworbenen Taktzahlen, die aber nie auf dem Zähler standen. Das Problem ist, dass wir dann für die Abwicklung zuständig sind.
Und für jedes Produkt, wass in die Inspektion oder RMA geht, musst Du mindestens 10 weitere ohne Beanstandung Verkaufen, die diesen Verlust ausgleichen müssen. Die erste Ryzen Generation hat sich zwar erstaunlich gut verkauft, wird aber für die, die Support leisten mussten oder technische Ansprechpartner waren nicht positiv in Erinnerung bleiben.

Wir haben das damals alles auf Kulanz geregelt, da wir immer an einer langfristigen Kundenbindung interessiert sind/waren.
Dennoch habe ich mich geärgert, weil das Problem künstlich durch eben diese tendenziösen Strömungen in den Foren erst entstanden sind.
Die Freude über ein Konkurrenzprodukt in allen Ehren, aber Ryzen 1 war, wenn auch ein wichtiger Schritt, für den 08/15 User und seine tatsächlichen Bedürfnisse nicht so überragend, wie vielfach dargestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leereiyuu
Das kann ich mir vorstellen, mit ein Grund bzw. nicht ohne Grund ,dass lieber Intelsysteme verkauft werden.
 
Tornavida schrieb:
Das kann ich mir vorstellen, mit ein Grund bzw. nicht ohne Grund ,dass lieber Intelsysteme verkauft werden.
Das hat eher was mit Softwarezertifizierung und bestehenden Supportoptionen zu tun. Für die AMDs war viel professionelle Software schlichtweg nicht zertifiziert. Für Workstations und Server anfangs keine Carepacks verfügbar.
Im Business- Umfeld unabdingbar. Und ja- Die Plattform war nicht ausgereift. Das ist aber zu erwarten gewesen, bei so einem großen Sprung, den AMD da hingelegt hat.
Das nehm ich ihnen aber nicht übel, da allein das Verschärfen der Konkurrenzsituation für alle so viel Gutes bewirkt hat. Das überwiegt enorm.

Was mich hier auch immer wieder wundert ist, warum so viel auf diese Ausnahmeapplikationen wie Rendern usw. gesetzt wird, wenn es um CPUs geht, die für den Desktop Einsatz konzipiert sind.

Dabei verstehe ich, dass es interessant ist zu wissen, wie sich CPU XY darin schlägt. Irgendwie muss man die mögliche Gesamtleistung ja darstellen.
Geht man aber in die Realität, hat aber z.B. das GPU Rendering im Desktop- Einsatz das CPU Rendering abgelöst.


Was bleibt dann noch? Kompilieren, Videos Konvertieren/Bearbeiten (was auch inzwischen GPU gestützt funktioniert)?
Mathematische und wissenschaftliche Berechnungen werden auch eher auf Workstations/Servern mit ECC durchgeführt.

Und da muss man sich vergegenwärtigen, dass die normalen Desktop PCs 99% ihrer Zeit zum Konstruieren, Video/Fotobearbeiten, Videos- Konferenz, Musik, Surfen, Daddeln und Office- Applikationen genutzt werden.

Deswegen wundert mich der allgemein hohe Stellenwert einer maximalen Multicoreleistung für eine Desktop CPU generell ein wenig, werden die wenigsten das ausnutzen bzw. der Anteil an Zeit, in welchen man diesen ausnutzt im Normalfall im Verhältnis zum Rest ziemlich gering sein.

Ausnahmen bestätigen natürlich auch hier die Regel.
Wie gesagt- Bin ich überwiegend am CPU Rendern oder mache überwiegend massive Multicore- Berechnungen, dann würde ich mich hüten derzeit etwas anderes als einen 5950x zu empfehlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: whigga und Vigilant
Wir wissen ja mittlerweile was passiert.

Früher hätten wir uns in der Community überschlagen, wenn eine CPU OOTB 5,5Ghz erreicht hätte. Das war eine Leistung. Wie lange alle auf die 5Ghz Schallmauer gewartet haben.

Was jetzt noch davon übrig bleibt sind einfach nur absolut stupide Kommentare weil die Leute einfach nur lesen: "Intel + 260W" vs. "AMD + 140W". Das wars, komplett undifferenziert.

Die Leute verstehen einfach nicht, dass die Kiste im Teillastbereich einfach absolut super effizient ist. Das ist doch nur der erste Wurf einer vollkommen neuen Architektur.

Das um was es hier geht, ist doch was ganz anderes. Die Leute wollen Intel scheitern sehen. Viele scheinen ein persönliches Problem mit Intel zu haben.

Für viele steht Intel für "Corporate America", für den Kapitalismus. Wahrscheinlich fahren alle Intel Mitarbeiter einen protzigen AMG oder Porsche SUV...PFUI!!

Wir wissen ja, dass AMD nur Luft und Liebe verteilt und dort alle entweder mit dem Fahrrad, oder dem Prius zur Arbeit fahren, nachdem sie 1000x Bäume gepflanzt haben und noch 3 Tiere aus dem Heim geholt haben.

Per se kann man schonmal 50% der Kommentare unter Intel News wegstreichen.

@ArrakisSand Wieso sollte das nicht gehen? Entweder ich loope den CB von mir aus 5x in Folge und erhalte jedes Mal ein vergleichbares Ergebnis, oder man lässt ein Projekt komplett durchrendern.

Du kannst alternativ auch einfach im Bios einstellen, dass der Boost länger gehalten werden soll. Ist doch komplett easy.

Mit der kommenden Generation werden sich Intel und AMD extrem annähern, also...alles entspannt.
 
  • Gefällt mir
Reaktionen: Leereiyuu und Dome87
HanneloreHorst schrieb:
aber die topleistung bei über 250 Watt?
Aber alles über 241W PL2 ist ein Betreiben außerhalb der Spezifikation und kann der CPU doch nicht angelastet werden. Diese CPUs arbeitet auf 125W PL1 und für 56sek auf 241W PL2 und dabei laufen sie gut und effizienter als die Vorgänger. Daher doch eine gute Entwicklung.

Alles darüber ist ein Bonus dass sie es überhaupt kann. Jeder Chip, egal welcher, wird am thermischen Limit vollkommen ineffizient. Das liegt an der Physik.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Eine Hitzeköpfige Antwort einer Hitzeköpfigen Firma.

Intel: bitte werde kleiner, danke!
Ergänzung ()

.Sentinel. schrieb:
Das ist doch mit eines der Punkte, die ich anspreche. Rendern und massives Computing haben grundsätzlich andere Anforderungen und Aufgabenstellungen als ein normaler PC der mit Desktop- Applikationen betrieben wird. Und dort wird auch ein 5800X3D zulegen
Aha also Cinema 4d und FEM workload vs Excel :freak:
Ergänzung ()

Endless Storm schrieb:
Also wenn DAS nicht die Lösung für unser Heizungsproblem im Winter ist...
Wie ein Russe sagen würde: Strom und Hitze kommen von Französischen Kernreaktor, weil Stromtrasse von Windparks im Norden nix funktioniert weil Politik gepennt hat. Nix Hitze mit Gas von Russland.
Ergänzung ()

.Sentinel. schrieb:
Geht man aber in die Realität, hat aber z.B. das GPU Rendering im Desktop- Einsatz das CPU Rendering abgelöst.
Nur für "kleine" Szenen die in den lächerlich kleinen RAM der GPUs passen, nichts schlägt DIMM Speicherslots mit Maximalausbau.

Die schauderlichen GPU APIs tun ihr übrigens, Software die noch lief läuft plötzlich nicht mehr oder die Sinus Funktion gibt andere Werte weil irgendwo Transistoren gespart wurden was dazu führt dass der Pseudozufallsgenerator nicht mehr funktioniert. Etc.
GPU ohne OSS Treiber und ordentlicher API ist nur gut zum basteln.
Richtige Software geht anders.
 
Zuletzt bearbeitet:
t3chn0 schrieb:
@ArrakisSand Wieso sollte das nicht gehen? Entweder ich loope den CB von mir aus 5x in Folge und erhalte jedes Mal ein vergleichbares Ergebnis, oder man lässt ein Projekt komplett durchrendern.

Das kapiert der nicht.
Was in seine rote Anschauung nicht passt darf nicht sein.
Wie von dir bereits ausgeführt.
Seine Weltanschaung:
t3chn0 schrieb:
Wir wissen ja, dass AMD nur Luft und Liebe verteilt und dort alle entweder mit dem Fahrrad, oder dem Prius zur Arbeit fahren, nachdem sie 1000x Bäume gepflanzt haben und noch 3 Tiere aus dem Heim geholt haben.
 
Bei dem ganzen AMD vs. Intel Streit wurde die wichtigste Frage vergessen:
Kann sich der 12900KS die Stromverbrauchskrone in Prime95 zurückholen ?

Prime.jpg


Wenn 241 vs. 260W bedeutet auch am Limit 19W mehr dann 293+19=312W also nur Platz 2 :heul:
 
  • Gefällt mir
Reaktionen: .Sentinel.
Also 360W konnte ich mal erzwingen.
Danach wirds schon eher eng mit dem Wärmeübergang.
Die Kühlung würds noch locker wegstecken.
 
Ich hab 330 Watt bei meinem 5950x schon geschafft, mit all core oc auf 4,7 GHZ.

Denke ich hab aber auch zuviel Spannung verwendet, habs nicht ernsthaft bisher versucht stabil zu bekommen, weil die Temps dann halt auch trotz Wasserkühlung auf über 100 Grad gehen. Könnte ich bei Zeiten mal probieren, in die Notabschaltung geht meiner erst ab so 120 Grad.^^
 
  • Gefällt mir
Reaktionen: Esenel
Ich will ja nix sagen, aber ich bekomme den Wert
  • AMD Ryzen 9 5950X: 26.715 Punkte" bei meinem Ryzen 9590 nicht hin.
  • Selbst wenn ich auf 130 Watt gehe, komme ich nicht so niedrig. Aber okay.
Jedenfalls muss der Intel auf 5.5Ghz mit der Brechstange gekloppt werden um da rann zu kommen. Noch dazu DDR5.
Schauen wir dann mal bei der neuen Ryzen Generation mit 3D Cache und DDR5........
 
.Sentinel. schrieb:
Dabei wird unterschlagen, dass das ein Mittel ist, um kurzzeitige Lastspitzen abfangen zu können (wie sie im standard Desktopbetrieb, wofür die CPUs konzipiert sind, häufig auftreten.
An sich auch wieder eine sinnvolle Geschichte, die hier einseitig durchweg ins Negative gedreht wird.
Wäre dann nicht jede Form von Benchmark auch irreführend, da die max. Leistung eben eh nicht gehalten wird und somit nicht der Spitzenverbrauch?
Fakt ist doch, es gibt gerade einen Player aus Cupertino auf dem Markt, der zeigt, das energieeffiziente Systeme auch ohne diese extreme Spitzen erreicht werden kann.
Zudem nutzt Intel ja absichtlich Benchmarks(egal aus welchem Bereich oder anders, über den gesamten Bereich) wo der Peak bei 245 Watt einschlägt um höhere Zahlen zu generieren.
Um also faire Vergleiche zu haben müssten alle Prozessoren immer bei 150 Watt gedeckelt werden.
Dann würden aber Intels Ergebnisse eben wieder abfallen, das ganze wäre also nicht so gut vermarktbar.

Mir persönlich sind Benchmarks egal, mir ist es aber nicht egal wenn die angeteaste Spitzenperformance eben nicht über die volle Zeit entfaltbar ist oder eben zu viel Energie verbraucht.
Von daher bleibt Alder-Lake ein guter Schritt aber es bleiben noch viele weitere Schritte auf dem Weg.
Meine Kritik zu AMD habe ich übrigens glaube ich auch schon erwähnt und auch den oben herangeführten Player aus Cupertino könnte ich kritisieren.
Der Punkt ist doch einfach, das wir viele Versprechen haben, viel Werbemarketing-Blabla aber am Ende kommt bei Intel und AMD mal mehr mal weniger bei rum aber selten bahnbrechendes.

Oder nur Zahlen die mit der Brechstange erkauft und daher auch Realitätsfern sind.
Das sollte man ehrlich anmerken, wenn man eine CPU braucht und eine Alder-Lake CPU ist da die perfekte, dann sollte man trotzdem zugreifen, auch wenn man nicht ganz Happy ist.
Das gilt für alle anderen Hersteller auch.

Ich bin zumindest gespannt, was AMD mit Zen 4 und 5 dann liefert und Intel mit der 13th Gen.
Da geht definitiv noch mehr, vor allem im Effizienz-/Leistungsbereich.
 
  • Gefällt mir
Reaktionen: Unnu
Quonux schrieb:
Aha also Cinema 4d und FEM workload vs Excel :freak:
Exakt. Wieviel unterschied macht es im Leben (auch im Professionellen), wo Du Arbeit im Viewport verrichtest, im Gegensatz zu dem, wo Du über nacht dann den Proof renderst, der dann in die Renderfarm geht?

Nur für "kleine" Szenen die in den lächerlich kleinen RAM der GPUs passen, nichts schlägt DIMM Speicherslots mit Maximalausbau.
Klar- Die "kleinen" Szenen mit inzwischen 24 GB VRAM.
Ergänzung ()

HanneloreHorst schrieb:
Wäre dann nicht jede Form von Benchmark auch irreführend, da die max. Leistung eben eh nicht gehalten wird und somit nicht der Spitzenverbrauch?

Nein, weil es eine Desktop- CPU ist. Die Desktop- CPU erstellt den Proof. Der Cluster/Node berechnet die Szene/Animation. Wieso sollte ich mit einer Desktop CPU irgendwelche komplexen Szenen/Animationen durchberechnen wollen? Das macht im Heimbereich die GPU schneller bzw. der Rendercluster im (Semi-) professionellen Bereich..

Fakt ist doch, es gibt gerade einen Player aus Cupertino auf dem Markt, der zeigt, das energieeffiziente Systeme auch ohne diese extreme Spitzen erreicht werden kann.
Dann wird "der Player" mühelos die gesamte Computerindustrie innerhalb kurzer Zeit auf sich konzentrieren.
Die Konkurrenz ist also jetzt schon erledigt. Mal sehen, ob das wirklich so ist.

Mir persönlich sind Benchmarks egal, mir ist es aber nicht egal wenn die angeteaste Spitzenperformance eben nicht über die volle Zeit entfaltbar ist oder eben zu viel Energie verbraucht.
Dann kauf das Produkt nicht, wenn es Dich stört.

Oder nur Zahlen die mit der Brechstange erkauft und daher auch Realitätsfern sind.
Alder Lake hat genau doch aber im Low- End Sektor ordentlich Wirbel verursacht, also in Sachen Effizienz?
 
Zuletzt bearbeitet:
LatinoRamon schrieb:
Jedenfalls muss der Intel auf 5.5Ghz mit der Brechstange gekloppt werden um da rann zu kommen. Noch dazu DDR5.

Man man man.
Wie uninformiert kann man sein?

Wie kommt man auf die 5.5GHz Boost Takt von 2 Kernen beim CB R23 All Core?
12900KS 5.2GHz All Core
12900K 4.9GHz All Core

Artikel lesen würde ab und zu helfen...

Und der RAM (egal ob DDR4 oder DDR5) hat halt keinen Einfluss ...
 
  • Gefällt mir
Reaktionen: .Sentinel.
.Sentinel. schrieb:
Nein, weil es eine Desktop- CPU ist. Die Desktop- CPU erstellt den Proof. Der Cluster/Node berechnet die Szene/Animation. Wieso sollte ich mit einer Desktop CPU irgendwelche komplexen Szenen/Animationen durchberechnen wollen? Das macht die GPU bzw. der Rendercluster.
...
Du sprichst also allgemein der CPU jetzt ihre Existenzberechtigung ab, weil es für alles andere Rendercluster gibt? Dann könnten wir auch 4 Kerner nehmen, weil Spiele selten alle Kerne ausnutzen und daher die Peaks eh nicht auf allen Kernen laufen oder?
Dieses Benchmarkgewichse auf Kosten von TDP ist halt unsinnig und wenn sich das in Spielen etabliert, das es solche Peaks braucht, dann noch unsinniger, gibt ja Rendercluster für Rechenintensive Sachen, hast du gesagt.
.Sentinel. schrieb:
Dann wird "der Player" mühelos die gesamte Computerindustrie innerhalb kurzer Zeit auf sich konzentrieren.
Die Konkurrenz ist also jetzt schon erledigt. Mal sehen, ob das wirklich so ist.
...
Habe ich nie gesagt, aber wenn Unterstellungen deine Argumente fördern sollen, dann scheinen dir Andere wohl auszugehen.
.Sentinel. schrieb:
Dann kauf das Produkt nicht, wenn es Dich stört.
...
Mach ich nicht.
.Sentinel. schrieb:
Alder Lake hat genau doch aber im Low- End Sektor ordentlich Wirbel verursacht, also in Sachen Effizienz?
Das ist richtig und falsch, es ist richtig im Vergleich zum Vorgänger aber es gibt ja auch Vergleichstests in Notebooks, wo bei einer Deckelung auf 45 Watt immer noch AMD vorne ist.
Hier
In Summe kann man AlderLake loben, habe ich auch schon, aber es ist weit weg von perfekt und daher für mich immernoch eine kleine Mogelpackung.
 
Zurück
Oben