News Geekbench-Ergebnisse: Intel Core Ultra 9 285K schlägt AMD Ryzen 9 9950X

sikarr schrieb:
Ja weils auch nix Positives gibt.
Es gibt absolut nichts positives zu den neuen CPUs? Nichtmals die Leistung?
Alles klar :D

sikarr schrieb:
Weder das eine noch das andere ist der Fall, und ich habe auch schon geschrieben das aktuell sogar ein Intel bei mir werkelt, sogar mit E-Cores Woohooo, soviel dazu.
Das beweist natürlich alles :D

Den Punkt, dass du nicht weißt, ob der Intel, trotz E-Cores, in 12-16 Thread Anwendungen möglicherweise trotzdem schneller ist, hast du gekonnt ignoriert. Warum wohl?

sikarr schrieb:
Dazwischen scheints bei euch immer nix zu geben, wie gesagt mal abseits der eigenen Nutzung schauen.
Und du weißt woher, dass das dazwischen auf dem 9950X besser läuft? :)
 
Zuletzt bearbeitet:
Krik schrieb:
Warum nochmal lässt Intel jetzt Hyperthreading weg?

Die Einführung dessen wurde damals damit begründet, dass es die CPU besser auslastet und man so "kostenlos" mehr Performance raus kitzelt. Es ist mir daher unklar, warum man jetzt kein HT mehr haben will.
Ich habe die Erfahrung gemacht das die P-cores ohne HT viel kälter laufen, da kann man locker 100Mhz höher takten. Durch die günstigen und vielen E-cores kann man HT durchaus weglassen, weil man die fehlenden Threads durch mehr E-cores ersetzen kann.
 
  • Gefällt mir
Reaktionen: chaopanda und Hovac
Ist das ganze nicht irgendwie total unspannend? Ich meine ich schau mir jetzt die Ergebnisse an. Sagen wir nen 14900k vs diese neue ding hier. Laut GeekBench ist das dann 3084 vs 3449 punkte im single core und der abstand multicore bewegt sich ebenfalls im 1x% Bereich.

Die Leistungssteigerungen pro Generation sind einfach kaum noch signifikant für den Alltagsbetrieb. Zumindestens im Consumerbereich. Es reicht alle 5 Jahre mal zu gucken was es so neues gibt.

Die kommen jetzt mit Features wie AI geblubber weil sie einfach selber sehen das die Leistungssteigerungen kaum noch ein Verkaufsargument darstellen.
 
SweetOhm schrieb:
Hab jetzt nirgendwo lesen können (vielleicht blind), wieviel Strom die Beiden CPUs (285K/9950X) im Geekbench "verbraten" haben während sie das Ergebnis generierten ?
Das wäre (für mich zumindest) von Interesse !
WCCFTech spricht von über 300W Real Verbrauch. (Korrigiert, leider zu schnell gelesen im Artikel von WCCFTech)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm und Blende Up
B3rry schrieb:
Zitiere bitte richtig oder lass es dir richtig übersetzen. Bei den 300W gehts um den I9. Hauptsache mal wieder rausgerotzt.
B3rry schrieb:
@TaurusReloaded Nein machen sie nicht. Du bist einfach nicht in der Lage den Text zu verstehen.
Mein Fehler. Korrigiert. Trotzdem kann man freundlich bleiben und sachlich auf Fehler hinweisen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JarlBallin, Rockstar85, suessi22 und 5 andere
@Shoryuken94 ich musste 4 von 4 Intel CPUs 13900K + 14900K austauschen, wegen Bluesceens am laufenden Band, aber keinen der 5xxx 7xxx AMD und das waren ca. 40 Stück.

Intel muss jetzt zeigen, dass sie den Fehler erkannt und beseitigt haben.

Dass mit den Softwareproblemen bei AMD ist scheisse und solltte/darf nicht passieren, aber nicht zu vergleichen mit dem CPU durchbrennen.
 
  • Gefällt mir
Reaktionen: JarlBallin, eXe777, Dittsche und 2 andere
GR Supra schrieb:
Ineffizient und hoch unsicher.
Unsicher ist klar, viele Risiken sind nur durch HT/SMT erst möglich geworden.

Ineffizient würde ich jetzt aber nicht unbedingt sagen. Man hat mit 5% mehr Transistoren 20-50% mehr Leistung bekommen. (War glaub alte Aussage von Intel)
Also auf die Chipfläche gesehen, eher effizient.

Da man mittlerweile bei 16 bis 24 Kernen im Desktop angekommen ist, braucht man schlicht immer seltener SMT.
Klar hier Forum schreien immer einige, das sie nie genug Leistung haben und gerne einen 64 Kerner mit Top Leistung wollen (am besten noch super billig und null Verbrauch) aber sehr sehr wenige private Leute brauchen wirklich mehr als 24 Kerne.
Alternativen gibt es ja, sind nur teuer 😜

Ich warte jetzt auch extrem gespannt drauf wie Leistung und Verbrauch dann tatsächlich werden.

Für Vollgas geben sieht es zumindest nicht wirklich besser aus, wenn die Gerüchte mit dem PL3 und 4 stimmen.
Aktuell würde ich vermuten, dass der Geekbench mit mind. 250 Watt gelaufen ist.
 
Ob es bald auch Langzeit-Tests braucht für brauchbare vergleichende Aussagen?
Die Intels haben so ein wenig den Beigeschmack von Reifen mit extremem Abrieb... sodass man schnell mal bei Regen ins Schleudern kommt.
 
  • Gefällt mir
Reaktionen: JarlBallin
funkflix schrieb:
Warten wir mal lieber ab wieviel die CPU final nuckelt
Was der eine beim Spielen/Benchen extra schluckt, verbrennt der andere im Stand - für mich ist Zweiteres das größere Übel (das hängt aber natürlich von der individuellen Nutzung ab).

Insofern: das wird spannend!
 
  • Gefällt mir
Reaktionen: neofelis
Pizza! schrieb:
Klar hier Forum schreien immer einige, das sie nie genug Leistung haben und gerne einen 64 Kerner mit Top Leistung wollen (am besten noch super billig und null Verbrauch) aber sehr sehr wenige private Leute brauchen wirklich mehr als 24 Kerne.
Alternativen gibt es ja, sind nur teuer 😜
Wer solche Anforderungen hat, der ist auch nicht mehr "Consumer" sondern eher "Prosumer" und bei Threadripper eher schon richtig aufgehoben, darf dann entsprechend auch in die Geldbörse greifen, da hab ich wirklich wenig verständnis für die "knausrigkeit" oder übertriebene Anspruchshaltung an niedrige Preise, die einige an den Tag legen.
 
Noch, ist rein gar nichts klar. Was spricht also dagegen, einfach mal abzuwarten?

Übrigens, die Grabenkämpfe AMD vs Intel waren früher schon so krass, was eigentlich meistens zeigt, wessen Geistes Kind man ist. Kein Wunder rottet sich die Menschheit aus auf Dauer.

Sollte Intel nun beim Verbrauch tatsächlich besser dastehen, im Vergleich zur letzten Gen, empfinde ich es als gut und angemessen, da die Brechstange echt unsauber war, siehe Degeneration.
Ich verstehe gerade nicht wirklich, wieso hier manche wollen, dass Intel wieder in der Leistung vorne liegen soll. Letztendlich war es ja Intel, die Preise bis zum Himmel verlangt haben. AMD hat das schlicht nachgemacht, wieso sollten sie nicht? Beide sind Firmen und als solches schlicht Geldgeil.
Aus meiner Sicht, sind die Preise für die CPUs gesunken. Kaufte man damals eine Core2Duo CPU, latzte man noch locker 500 Euro. Heute kauft man damit fast das Beste aufm Markt(Desktop).
Übrigens ein Blick zu Nvidia lohnt sich auch, wenn man die Preisentwicklung ansieht. Kaum Mehrkosten für die Produktion, aber Preise für einen Gebrauchtwagen, einfach nur abartig dreist. Viele machen das mit und ich kann nur den Kopf schütteln. Andere versuchen krampfhaft etwas vernünftiges auf den Tisch zu zaubern und hier wird es verprasst. Zeigt auch gut auf, dass echte Arbeit sich heute nicht lohnt.

Ich hoffe ja, dass AMD wieder Erwarten mit den neuen CPUs Intel schlägt, da AMD Marktanteile benötigt, um auf Dauer Intel paroli bieten zu können und das wäre ein Vorteil für uns. Und nein, ich verdrücke keine Tränen bei Intel, da sie Leute entlassen, denn die Firma hat noch genügend Holz auf den Rippen. Die entlassungen sind nur dazu da, die Managerposten weiterhin zu mästen(Stichwort kranker Kapitalismus).

In ferner, sehr ferner Zukunft würde ich mir ja wünschen, dass die Rechner in eine andere Richtung gehen. Ein Mobo, auf dem zwei Sockel sind, einer für das Managment, einer für reine Ausführung. Was das für eine Leistung ergeben würde... schmacht. Aber gut, das ist reinste Spekulation. Wenn ich ehrlich bin, sind wir jetzt schon in einem Bereich, in dem wir für fast alles genügend Power haben. Ich will aber dennoch Fortschritt und somit bin ich in dem Teil unvernünftig.
 
digitalfrost schrieb:
Ich habe die Erfahrung gemacht das die P-cores ohne HT viel kälter laufen, da kann man locker 100Mhz höher takten. Durch die günstigen und vielen E-cores kann man HT durchaus weglassen, weil man die fehlenden Threads durch mehr E-cores ersetzen kann.
Mach doch mal einen Test für alle. Ein MT Durchlauf mit und ohne HT bei einer Maximalvorgabe von z.B 120W. Intel will und muss ja sparsamer sein, dann würde man sehen ob es ohne offenen Verbrauch besser ist die E-Kerne stärker zu nutzen als HT. Ist natürlich nur eine Richtung, es kann sein das es erst bei den neuen E-Kernen eine Gesamtverbesserung ist.
 
Naja, ich meinte NOCH mehr geteilt. Dazu, eine GPU kann nicht dasselbe, was eine CPU kann. Die GPU würde ich ja beibehalten, so ist es ja nicht.

Ich stelle mir das in etwa so vor, eine Einheit ist für das Scheduling, also die zuteilung verantwortlich und managt das so perfekt, wie nur irgend möglich und das nicht nur in Bezug auf CPU-Auslastung, sondern auch GPU.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Ne, das funktioniert nicht, weil sich der Bedarf je nach Szenario teils x-fach die Sekunde ändert. (...)
Was soll da eine Prio noch groß was bringen?
Der typische Computernutzer hat nicht viele Programme gleichzeitig am Laufen. Der hat sein Vordergrundprogramm (Spiel, Word, Browser, etc.), ein paar Programme im Hintergrund (Discord, Spotify, etc.) und der Rest ist Betriebssystem und Dienste. Da ist gar nicht so viel Varianz drin.
Ein Tag-System, wie ich es angesprochen habe, kann dem Scheduler genau sagen, worauf es Priorität legen soll. Das Vordergrundprogramm bekommt die P-Cores, die Hintergrundprogramme die P- und E-Cores und das OS und die Dienste die E- und SMT-Cores. Oder so in der Art.

fdsonne schrieb:
Das ist reinste Theorie. In der Praxis ist es eher so, dass man anstatt mit einer fixen Anzahl an Threads mit einer Art Pool arbeitet. Das heißt, es gibt nicht "weniger anspruchsvolle Threads". Sondern es gibt einfach nur Aufgaben, die in einen Pool gekippt werden und wo am Ende dann die Gesamtlaufzeit entscheidet.
Und genau das ist die mangelhafte Umsetzung, von der ich spreche. Wenn an den Aufgaben keine Information dran hängt, welche Art Leistung unter welchen Umständen benötigt wird, dann kann der Scheduler auch nicht effektiv arbeiten.

Sound z. B. verlangt wenig Leistung und wenig I/O, aber erfordert Real Time-Verarbeitung. Grafik verlangt teils viel CPU-Leistung, viel I/O und Real Time Verarbeitung (für konsistente Frame-Zeiten). Der Windows-Wechseldatenträgerdienst hingegen braucht das alles nicht. Der wird nur geweckt, wenn es Änderungen bei der angeschlossenen USB-Hardware gibt.

fdsonne schrieb:
Der Programmierer könnte es, wenn er es denn wöllte und wenn die Aufgabe entsprechend so gestaltet ist, dass es überwachbar ist.
Beim Gaming ist das bspw. ein Ding der Unmöglichkeit, denn neben Dingen die das Game macht (Programmierer A) kommen noch Dinge dazu, die bspw. der Treiber fabriziert (Programmierer B) - die wissen nix voneinander. A kippt Aufgaben in eine Schnittstelle, die B bereit gestellt hat und am Ende muss der Threadscheduler vom OS wissen, ob jetzt der/die Threads von A oder von B die laufzeitkritisicheren sind. Denn wenn es eng wird, entscheidet sich hier stark wie viel Performance man liegen lässt.
Wenn die Aufgabe dem Scheduler mitteilt, wie kritisch sie ist, weiß er was er wie zu sortieren hat. Einfach nur nach dem Prinzip "Sieh zu, wie du damit klar kommst!" zu arbeiten, ist ineffizient.
Und der Programmierer weiß, wo die meiste Rechenzeit in seinem Code benötigt wird. Dafür gibt es Profiler-Software.

fdsonne schrieb:
Das ist nicht vergleichbar, da dir der 1:1 Vergleich wie auf dem PC fehlt. Was man auf den PC macht ist wahlweise SMT an oder aus zu knipsen, Wahlweise E-Cores an oder aus zu knipsen oder sogar mit großen CPUs die Core-Skalierung zu ermitteln.
Das gibts auf dem Smartphone in aller Regel nicht. Ein Gerät, eine Konfig. Du wirst nicht rausbekommen, ob der Ansatz keine Ahnung 1+2+4 besser ist als der Ansatz 2+0+4 oder 2+2+8 oder sonstwas. Weil gibt es nicht zu kaufen...
Intel hat CPUs mit P- und E-Core und SMT HT auf beiden Core-Arten auf dem P-Core. Im Prinzip hat man damit vier drei verschiedene Core-Arten. Was ich damit sagen will: Android schafft es, mit zwei, drei Core-Arten mit unterschiedlicher Leistungsfähigkeit gleichzeitig umzugehen. Und wenn das OS das schafft, dann kann man etwas ähnliches auch auf x86-Betriebssystemen umsetzen.

HT hat man damals damit beworben, dass man bis zu 80% Mehrleistung erreichen kann. Dieses Potential einfach wegzuwerfen, weil der Scheduler kann das nicht effizient verwalten kann, heißt für mich, dass der Scheduler das Problem ist.
 
Zuletzt bearbeitet:
Mensch_lein schrieb:
Naja, ich meinte NOCH mehr geteilt. Dazu, eine GPU kann nicht dasselbe, was eine CPU kann. Die GPU würde ich ja beibehalten, so ist es ja nicht.
Ganz im Ernst: Es ist keine gute Idee, und deshalb sehen wir ja das absolute Gegenteil davon als größeren Trend. Die Kommunikation Sockel-zu-Sockel ist ein Energiefresser und versaut dir die Effizienz des gesamten Systems. Daher ist der Trend ganz klar in Richtung mehr zusammenzulegen in einem Chip, nicht weniger.
 
Laut Recherche hat AMD überstürzt mit fehlerhafter Software ausgeliefert, ich haffe dass es nur ein einmaliger Fehler war und sie es noch fixen, beim jetzigen Stand lohne es sich nicht auf die neuen CPU upzugraden, die alten sind besser
 
Zurück
Oben