Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

de3p schrieb:
Was ist denn an cinebench nicht real?
wenn du gerne Cinebench durchführst und das dein hobby ist, dann kannst du mit so einer intel cpu auch spass haben. 😅
 
Northstar2710 schrieb:
wenn du gerne Cinebench durchführst und das dein hobby ist, dann kannst du mit so einer intel cpu auch spass haben. 😅

Ist das dein Ernst? Er schreibt zwei Sätze und du zitierst dann nicht mal seinen Punkt, dass Cinebench auch einen Praxisbezug hat bei einer bestimmten Anwendung? Hat dann doch nichts mehr mit einem Benchmark zu tun.
 
  • Gefällt mir
Reaktionen: Veitograf und de3p
Ayo34 schrieb:
Ist das dein Ernst?
ja, wie du gesehen hast. liegt wahrscheinlich aber auch daran das ich das programm nur als benchmark kenne, und mit einem raytracer von cinema4d nix anfangen kann. was zeigt mir denn die punktzahl in cinebench bezogen af den raytracer von cinema4d? ausser das höhere punktzahl besser ist.
 
Zuletzt bearbeitet:
@Northstar2710 Je höher die Punktzahl, umso schneller rendert der Rechner, umso weniger Kaffee musst du trinken, wenn du damit Dinge konstruierst.
 
  • Gefällt mir
Reaktionen: Veitograf, de3p und Ayo34
Northstar2710 schrieb:
ja, wie du gesehen hast. liegt wahrscheinlich aber auch daran das ich das programm nur eine benchmark kenne, und mit einem raytracer von cinema4d anfangen kann. was zeigt mir denn die punktzahl in cinebench bezogen af den raytracer von cinema4d? ausser das höhere punktzahl besser ist.

Wie jeder Benchmark zeigt er dir die Performance, die man dann im Spiel oder Programm erwarten kann. Wenn du bei einem Gaming-Benchmark-Test 20FPS mehr bekommst, hast du eben 20FPS mehr beim Spiel. Wenn du bei einem Zip-Benchmark 40% eher fertig bist, dann entpackt das Programm in der Praxis eben 40% schneller und so ist es bei Cinebench auch.

Am Ende versucht man ja mit Benchmarks die Realität abzubilden und natürlich sind manche Benchmarks mehr oder weniger relevant, je nachdem wofür man den PC dann in der Praxis benutzt.
 
stefan92x schrieb:
Je höher die Punktzahl, umso schneller rendert der Rechner, umso weniger Kaffee musst du trinken
das ist mir bewusst, aber hier gibt es nur punkte ohne bezug auf zeit/leistung im eigentlichen Programm. Darum ist für mich cinebench kein programm aus dem täglichen umfeld zuhause . Was für manche Anwender ein reales Szenario nachbildet, wie z.b. Ein test mit handbreak, oder ein Fps bench eines spieles.
Ergänzung ()

Ayo34 schrieb:
Wie jeder Benchmark zeigt er dir die Performance, die man dann im Spiel oder Programm erwarten
Dann sag mir mal was mir diese punktzahl für den raytracer von cinema4d auf ein projekt zeigt.
 
Northstar2710 schrieb:
das ist mir bewusst, aber hier gibt es nur punkte ohne bezug auf zeit/leistung im eigentlichen Programm
Doch schon... der Cinebench-Score entspricht im Prinzip der Laufzeit (je höher der Score, umso kürzer war die Laufzeit). Ganz grob kannst du dir das vorstellen als "gerenderte "Einheiten" pro Sekunde" (was auch nicht so richtig im Detail stimmt, weshalb es einfach diese Punktzahl gibt.
Northstar2710 schrieb:
Darum ist für mich cinebench kein programm aus dem täglichen umfeld zuhause
Stimmt natürlich, das ist was für professionelle (oder Hobby-) Anwender, und damit eher eine kleine Nische. Aber für diese eben genauso aussagekräftig wie deine anderen genannten Benchmarks.
 
  • Gefällt mir
Reaktionen: de3p und Ayo34
Northstar2710 schrieb:
Dann sag mir mal was mir diese punktzahl für den raytracer von cinema4d auf ein projekt zeigt.

Ich verstehe nicht, was du nicht verstehst?

Wenn eine CPU 20% mehr Punkte bekommt, ist die Leistung im Programm eben 20% höher, heißt der Task ist 20% eher fertig. Wenn der Zip-Benchmark 20% mehr Punkte bringt, dann wird eben 20% schneller entpackt. Wenn der Spiele Benchmark 20% höher ausfällt, hast du eben 20% mehr Frames.

Bei der GPU doch das Gleiche. In Spielen führt es zu mehr Frames, bei Anwendungen meistens zu einer geringeren Laufzeit. Dann renderst du eben das Video 20% schneller, was bedeutet, dass du 20% Zeit sparst.

Daher ist ja bei Anwendungen auch der reine Stromverbrauch ziemlich egal. Wenn du 1000 Watt anstelle von 500 Watt benötigst, aber die Arbeit 3x so schnell geht, hast du unterm Strich nicht nur Zeit gespart, sondern auch Strom.
 
  • Gefällt mir
Reaktionen: de3p
Ayo34 schrieb:
Ich verstehe nicht, was du nicht verstehst?
wahrscheinlich liegt es daran das ich bei cinebench die eigentliche anwendung aus dem cinem4d nicht sehe . Du sagt also wenn ich 20% mehr punkte im cinebench habe, bin ich mit jedem Projekt egal welcher einstellungen oder arbeit 20% schneller? wenn ja , dann kann ich das akzeptieren und das bench programm als entsprechende referenz für Cinema4d als reelles anwendungszenario sehen. Ich kenne 4dCinema nicht. Mir währe hier natürlich lieber ein rendering in 4dcinema selbst mit entsprechenden variablen.


genauso sehe ich 3dmark nicht als reales anwendungs programm, da es mir nur die leistung im benchprogramm zeigt und nicht wie die gpu in spiel xy performt.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
wenn ja , dann kann ich das akzeptieren und das bench programm als entsprechende referenz für Cinema4d als reelles anwendungszenario sehen. Ich kenne 4dCinema nicht.
Im Prinzip ist es so: In Cinema4D konstruiert man was und dann rendert man es dann. Cinebench ist einfach nur der Renderer, der eine vorgebene Konstruktion dann rendert. Also ja, das ist ein reelles Anwendungsszenario, aber einfach nur der "automatisierte" Teil des üblichen Cinema4D-Workflow. Dadurch versteckt der Cinebench tatsächlich ganz gut, was man eigentlich damit macht.
 
  • Gefällt mir
Reaktionen: Northstar2710 und de3p
Wenn man dann lange animationen rendert ist das im Prinzip wie stundenlang cinebench laufen zu lassen. Je früher man damit fertig ist, desto besser.
 
  • Gefällt mir
Reaktionen: Northstar2710
@Ayo34 zu post 1609 stromverbrauch ist nicht ganz egal. wenn die CPU so viel mehr verbraucht und dennoch schneller ist braucht die CPU dennoch mehr Strom trotz das sie schneller ist.
Bei meinem Fall hat es sich jedoch in der Hinsicht total gelohnt.
Das vorherige System brauchte insgesamt je nach dem so um die 10 Stunden bei einem stromverbrauch von 125 Watt pro Stunde. Bei einem Tag Nutzung.
Der neue je nach dem was er hat braucht nur noch 7 Stunden und ein Verbrauch von 260-300 Watt.
sagen wir mal es sind 250 Watt dann sind das 1750 Watt vs vorherige System 1250 Watt oder wenn der mal richtig aufsteht kann es schon mal bis zu 200 Watt sein was dann 2000 Watt wäre. In dem Sinne wäre das rund 250 Watt pro Woche an Ersparnisse. Das ganze kann man dann 1000 watt pro Monat also 0,35 Cent ungefähr an ersparnis.
richtig Strom sparen kann man also nicht. Es sei denn das system war so günstig gewesen das man es wieder rein holen kann.
Bei dem vom mir spielt der Verbrauch eine Rolle weil der beeinflusst das Ersparnis.
Eine rund um die Uhr Auslastung habe ich nicht geschafft gehabt. Dann würde das neue System mit Sicherheit ganz gewonnen haben.
Dann wären es gewiss um die 1 € unterschied bei 24 Stunden durchgehend und das ganze dann bei 7 Tagen lange. Aber das wäre ja unrealistisch weil das schafft kaum einer. Nun ja wollte damit also nur sagen das der Verbrauch nicht ganz unwichtig ist.
 
Ja aber du rechnest es auch schön vor: Man sollte es auch nicht überbewerten, schon gar nicht den CPU-Verbrauch. Die Leute schlagen sich gerade die Köppe ein und kaufen für knapp 2000 oder gar über 3000 Euro neue GeForce-Karten. Und da schaut keiner auf 100 Euro mehr oder weniger beim Einkauf - die wiederum hast du aber nie als Mehrverbrauch oder weniger Verbrauch dann zu vermelden, selbst beim Gesamtsystem über eine lange Zeit. Insofern Kirche im Dorf lassen ;)
 
latiose88 schrieb:
@Ayo34 zu post 1609 stromverbrauch ist nicht ganz egal. wenn die CPU so viel mehr verbraucht und dennoch schneller ist braucht die CPU dennoch mehr Strom trotz das sie schneller ist...

Ich hatte ja eine Beispielrechnung und es ist im Grunde sehr simpel. Du hast Aufgabe X und die muss erledigt werden. Eine neuere, effizientere CPU ist eben für diese Aufgabe stromsparender. Einfach weil die Aufgabe dann abgeschlossen ist. Egal ob die CPU dabei mehr oder weniger Strom in der Spitze verbraucht. Man muss immer die Zeit mit betrachten und wenn eine CPU 2000 Watt verbraucht und eine andere 100 Watt, aber 30x solange an der Aufgabe werkelt, dann hat am Ende die "2000 Watt CPU" weniger verbraucht.

Volker schrieb:
Ja aber du rechnest es auch schön vor: Man sollte es auch nicht überbewerten, schon gar nicht den CPU-Verbrauch. Die Leute schlagen sich gerade die Köppe ein und kaufen für knapp 2000 oder gar über 3000 Euro neue GeForce-Karten. Und da schaut keiner auf 100 Euro mehr oder weniger beim Einkauf - die wiederum hast du aber nie als Mehrverbrauch oder weniger Verbrauch dann zu vermelden, selbst beim Gesamtsystem über eine lange Zeit. Insofern Kirche im Dorf lassen ;)

Vor allem sind die 5000er Karten ja nicht mal groß effizienter als die 4000er Karten. Aber klar, extra neue Hardware kaufen lohnt sich nur ganz seltenen Fällen. Wenn man jetzt aber eine neue CPU braucht und zwischen 14900 und 265k für einen ähnlichen Preis entscheiden muss, dann spielt auch die Effizienz direkt eine Rolle.
 
Zurück
Oben