News i5-13600K & i7-13700K (ES): Spiele-Benchmarks von Raptor Lake aufgetaucht

gustlegga schrieb:
Da bestimmt mittlerweile eher das Marketing als die Vernunft der Ingenieure.
Ist jetzt auch nichts völlig neues, nur wird es heutzutage immer mehr auf die Spitze getrieben.
100% Mehrleistung bei einer kolportierten 4090 bei 80% mehr an der Steckdose ist dann für mich auch kein technologischer Fortschritt mehr.....


Ich denke auch, dass es ähnlich wie in anderen Bereichen auch zu Limitierungen seitens der EU kommen wird. Ist nur noch eine Frage der Zeit....
 
sebish schrieb:
Lol. Wann sind die Technikdiskussionen hier eigentlich von Ökos gekapert worden? Wir beziehen bald eh wieder Atomstrom. Entweder selbst produziert oder aus den EU Nachbarländern eingekauft, die alle fleißig neu bauen. Also spart euch die off topic Nachhaltigkeitskommentare doch bitte für irgendeinen Sub Sub Forenthread und bleibt hier bei Leistungs- und Effizienzbewertung. Danke.
Klar, und Frankreich zieht von uns den Ökostrom, weil die Reaktoren reihenweise wegen Wassermangel aus gestellt werden müssen. Und die 10Mrd miese zahlt ja dann eh nur der Steuerzahler.

Seit wann wird eigentlich eine wichtige Diskussion vom Stammtisch gekapert, der halt nichts beizutragen hat?

Genug OT, bevor es lachhaft wird....

Zum Thema:

Ich finde die ersten Tests schon mal spannend und bin gespannt ob DLVR im teillast Bereich noch mal effektiver die CPU werden lässt.

Ich bin mal gespannt, ob die ersten AMD benches echt waren, dann könnte es sehr sehr knapp werden für Intel. Nichts desto trotz lohnt es eher nicht, von 12700 auf 13700 zu gehen. Vllt aber Ende des Zyklusses mit dem 13700 Anstatt eines 12400 bei mir. Mal schauen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy, DefconDev, Floppes und eine weitere Person
mcsteph schrieb:
Ich denke auch, dass es ähnlich wie in anderen Bereichen auch zu Limitierungen seitens der EU kommen wird.
Da schlägt dann die Stunde von Cinebench.
Alles unter 100 Punkte pro Watt Aufnahme (rein hypothetisch) bekommt keine Plakette.
Aber wir kennen das ja aus dem Automobilsektor und ihrem lustigen Drittelmix Verbrauchstest....
Da laufen die CPUs auf dem Prüfstand dann untervoltet und nur im Baseclock und möglichst ohne AVX damits die Zulassung gibt.
Wenn dann im realen Einsatz richtig Leistung gefordert wird saufen sie weiterhin wie gewohnt....
:evillol:
 
Was soll das überhaupt für eine Rolle spielen? Da bräuchte Intel nur wieder das PL1 Limit aktivieren, dann hat sich das ganze doch erledigt. Es muss ja keiner unbedingt ohne Limit laufen lassen.
Sonst müsste man ja auch das Overclocking komplett verbieten, da sonst ja die Limitierung ausgehebelt wird, und dadurch der Verbrauch wieder steigt.
 
  • Gefällt mir
Reaktionen: bensen
VelleX schrieb:
Sonst müsste man ja auch das Overclocking komplett verbieten, da sonst ja die Limitierung ausgehebelt wird,
OC macht halt der User.
Autotuning ist auch nicht verboten, obwohl die Hersteller selber einen gewissen Flottenverbrauch über alle Modelle gemittelt einhalten müssen.
Deswegen hat VW auch damals den 3-Liter Lupo, oder wie der kleine Schuhkarton damals hies, gebracht.
Dass die Mehrheit der Leute halt weiterhin eher PS-stärkere SUVs und Mittel/Oberklassemodelle gekauft haben ist ja dann wieder egel.
 
owned139 schrieb:
Joa, 230W für den Ryzen 7950 und nochmal 450W+ für die 7950XT. Das wird ziemlich warm im Sommer :freak:
Jaja, du bist ja ganz neutral. Sonst würdest du ja auch schreiben, dass es bei einem i9 13900K(S) und einer RTX4090 ja in Summe wohl noch etwas mehr wäre.
Sagt übrigens noch nichts über die Effizienz aus. Dazu fehlen weiterhin die belastbaren Leistungswerte. Sowohl der CPUs als auch der GPUs.
 
  • Gefällt mir
Reaktionen: imh0t3p und Rockstar85
^^Intel in der Sig, Sie wissen schon 😎

Abgesehen davon bin ich überzeugt, dass man auch künftig Rechner zusammenbauen kann bei denen sich ein 500W-Netzteil fast schon langweilt und leise zu kühlen ist und trotzdem akzeptable Leistung bringt. Sowohl mit Intel, AMD oder NVIDIA-Komponenten. Diese „längste Balken“-Hardware zu absurden Preisen kann man dann ja getrost stecken lassen.
 
owned139 schrieb:
Joa, 230W für den Ryzen 7950 und nochmal 450W+ für die 7950XT. Das wird ziemlich warm im Sommer
Das ist an der Stelle genau das, was ich meine. Du benimmst dich wie ein Fanboy und das steht dir nicht. Ich würde mich ja echt freuen, wenn hier mehr wirklich mal diskutieren wollen über Vor- und Nachteile und zu einseitigen Meinungen auch mal Kontra bekommen. Das macht dann echt sogar Spaß solche Beiträge von anderen zu lesen.

Komm, gib dir Mühe! Du schaffst das, lass den inneren Monk frei.

gustlegga schrieb:
Gerade wenn man Produktivsoftware einsetzt die auf Intel Befehlssätze/Compiler optimiert ist kann die 10000er Serie durchaus die bessere Alternative gewesen sein.
Kommt darauf an, gerade R und andere "mathematische" Sprachen laufen auf Inte-Prozessoren ohnehin wirklich stärker, da ist es aber egal ob nun AlderLake oder vorher CommetLake und Co. Die Probleme liegen ja hier in der Libary, die AVX allgemein bei allem, was nicht Intel ist, heraus nimmt. Das ist schade, weil es nich sein müsste. Aber da kann man lange diskuteiren.
gustlegga schrieb:
Man muss aber halt auch über den Handbrake/7-Zip/CB-Rxx Tellerrand hinaus schauen.
Selbst wenn man da den Tellerrand erweitert, ist das mit den Tests immer so eine Sache. Selbst die großen Webseiten und auch die wirklich tieferen Tests - wie von Igor - laufen am Ende alle eher auf standardisierte Tests aus Testsuiten, weil es unglaublich kompliziert ist.

Alles was über diese standardisierte Tests hinaus geht ist dann oft eher ein Test wie Software A zum Zeitpunkt X auf Betriebsystem B mit Versionsstand Y auf Hardware D in der Konfiguration YZ läuft. Ich les mir in letztere Zeit immer wieder mal Whitepaper und Anleitungen zu SQL-Servern durch. Wenn man dann merkt, dass alleine die Konfiguration schon Unterschiede weit über Faktor 10 ausmachen kann, dann weiß man auch, warum da viele nicht wirklich solche Tests machen.

Genauso kann bei anderen Benchmarks sogar ein Treiber entscheidend sein und das Bild quasi vollkommen drehen. Workstation und Servertests sind sehr kompliziert und man macht sich auch schnell angreifbar.
 
  • Gefällt mir
Reaktionen: Orok91 und gustlegga
Ich finds so geil, wenn die größten Fanboys immer die ersten und lautesten sind, die selber bei anderen "Fanboy!" rufen 🙃
 
  • Gefällt mir
Reaktionen: bensen, Orok91, owned139 und 2 andere
DevPandi schrieb:
Die Probleme liegen ja hier in der Libary, die AVX allgemein bei allem, was nicht Intel ist, heraus nimmt. Das ist schade, weil es nich sein müsste. Aber da kann man lange diskuteiren.
Ja, ich kann mich auch noch an die Matlab Geschichte bei Phoronix(?) erinnern.
Nicht schön, da bin ich ganz bei dir. Gabs in der Vergangenheit doch auch bei SSE?
Wo dann einfach bei non-genuine Intel auf MMX runtergeschaltet wurde obwohl durchaus SSE3 vorhanden gewesen wäre.
Wenn man schon Befehlssätze an den Mitbewerber lizensiert dann sollte doch auch der Support gegeben sein.
Von mir aus auch gern nach einer Prüfung wie die implentiert wurden.
Wir reden ja nicht von Eigenentwicklungen wie 3dNow oder SSE4A.
 
owned139 schrieb:
Wenn wir also davon ausgehen, dass jemand 4h am Tag und 7 Tage die Woche spielt, sind das Stromkosten von 101€ beim 12900KS und 38€ beim 5800X3D bei 37,3 Cent/kWh im Jahr und 4h jeden Tag ist für die meisten definitiv zu hoch angesetzt.
Mit 37,3 Cent/kWh hast du den Preis auch zu hoch angesetzt, aber trotzdem scheint es nicht so viel am Ende kostentechnisch überzubleiben. 4h pro Tag kann ich persönlich beim besten Willen nicht schaffen, am Wochenende könnte es gehen, aber für eine normal arbeitende Person kontinuierlich so zu zocken ist unmöglich.
Der negative Effekt ist aber nicht nur mit den Stromkosten verbunden, also der entsprechende Kühler, Netzteil bzw. Unterbau muss bezüglich der CPU-Spezifikationen(Auch Max.) ausgelegt werden, was im Gesamtpaket einen Negativeneffekt bei der Beschaffung und Kosten mitbringt.

Das schöne Beispiel mit den Grafikkarten und neue Standardnetzteile steht uns noch bevor.
 
  • Gefällt mir
Reaktionen: Floppes
Immer dieses Gejammer wegen des Stromverbrauchs, man kann CPUs auch heute noch sehr gut undervolten und macht auch viel mehr Sinn als Overclocking.
Wenn man auf die letzten 5% verzichtet, dann kann man so eine CPU sehr effizient betreiben.
 
F4irPl4y schrieb:
Wenn man auf die letzten 5% verzichtet, dann kann man so eine CPU sehr effizient betreiben.
Dir ist schon klar, dass bei manchen Leuten hier im Board von den 5% längeren Balken des eigenen Besitztums über dem des Mitbewerber das persönliche Lebensglück abhängt ?
:evillol:
Ergänzung ()

DarkStarXxX schrieb:
Ich warte lieber echte Tests ab bevor ich mir ein Urteil bilde.
Das ist generell die schlauere Herangehensweise als sich die eigene Filterblase schönzuträumen. 👍
 
  • Gefällt mir
Reaktionen: Otsy und Kalsarikännit
Sehen wir's Mal so: Es Melden sich bitte alle, die die neuesten High-End Komponenten kaufen werden. Interessanter als ein 7950X gegen ein Core i9 12900K(S) sind doch eher i7, i5, Ryzen 5 und Ryzen 7. Das High- Ende Segment zeigt nur, wer den längsten Balken hat. Um jeden Preis.
Ein i9 12900k hat in Spielen vielleicht 5-10% Mehrleistung. Wenn die Mehrleistung hoch ausfällt.
 
Zuletzt bearbeitet:
owned139 schrieb:
Abgesehen davon werden RPL und Ada mit AMD den Boden aufwischen.
Und wieder eine Fanboy-Aussage. Du tust hier echt immer so, als wären die AMD-Fans die einzigen, die mit losen Behauptungen um sich werden und dann kommt sowas. Auch ohne Beweis. Einfach behaupten Rohleistung ist bekannt hat bei Vega ja auch viel geholfen... Da war die Rohleistung auch toll... gebracht hat's nix. Oder auch bei den Intel-Arc. Da sieht es auch nach deutlich mehr Rohleistung aus, als am Ende an Frames ankommt.

Also nix genaues weiß man nicht.
 
  • Gefällt mir
Reaktionen: Orok91 und DevPandi
Sensei Jens schrieb:
RDNA 3 ist auch nicht wirklich effizienter, nur weil AMD drauf steht.
50% effizienter als RDNA2, welches bereits effizienter als Ampere ist.
Wenn das Topmodell doppelt so schnell wie eine 6900XT werden soll, dann wäre das bei 450W der Fall.

Eine 4090Ti mit 600W+ müsste da schon deutlich schneller sein, damit das effizienter wäre.
 
  • Gefällt mir
Reaktionen: Orok91
Sensei Jens schrieb:
Sehen wir's Mal so: Es Melden sich bitte alle, die die neuesten High-End Komponenten kaufen werden.
Ich werde mir demnächst alte High-End Komponenten kaufen in Form eines 12/16C Zen3 und den 3600er Zen2 vom Board werfen, nachdem ich seit einiger Zeit mit VMs rumspiele. Zählt das auch ? :D
Nochmal weitere 2x16GB 3600er wären auch nice auf die nächsten ~5+ Jahre gesehen..
 
Zurück
Oben