News i9-14900K vs. 7950X3D: Offizielles Lineup, inoffizielle Spiele-Benchmarks

"Sofern die Folie echt ist, würde Intel das Duell der Desktop-Flaggschiffe zumindest bei dieser Spieleauswahl ganz knapp für sich entscheiden"

?
Eine Intel-Folie soll also der Maßstab sein? Sehr fragwürdig, Computerbase.
 
CPU neuvorstellungen finde ich seit zen3 nur noch semi spannend. Mit einer 4090 kann man vllt noch ins CPU Limit rennen bei wenigen Spielen, aber darunter ist es schon fast egal.
Ob meteor lake oder Zen4, beide Plattformen haben massig Leistung. Das CPU Geld ist unfassbar langweilig, Effizienzsteigerung fände ich sehr viel interessanter
 
Da ein 14900k genau einem 13900ks entspricht wird es auch diesmal nicht für Intel reichen. Naja nächstes mal dann vielleicht.
 
  • Gefällt mir
Reaktionen: dergraf1
Wenn Intel keinen 14900ks bringt, bleibe ich bei meiner aktuellen CPU, anderfalls wird aufgerüstet. Die 14gen ist leider nicht wirklich interessant, klar eine Verbesserung aber etwas bewegendes ist es nicht.
Das Thema Effizienz nervt aber langsam, ständig der Vergleich vom Verbrauch in Benchmarks, beim gaming wird der Verbrauch herangezogen, der mit Hilfe einer 4090 und 720p gemacht wurde, was soll der Blödsinn? Niemand lässt seine CPU 24/7 im Benchmark laufen oder spielt in 720p, wo der Verbrauch entsprechend hoch ist. Ein Test zum Verbrauch beim gaming sollte immer in 1440p oder 2160p stattfinden. Ja AMD ist Effizienter, bei spielen und Benchmarks, der Unterschied ist aber geringer, als viele es gerne hätten. Für Personen, die ihren Rechner auch fürs Standard Home Office nutzen oder viel filme/YouTube schauen, sind mit Intel effizienter unterwegs.
flappes schrieb:
Und ich weiß ja nicht in welchen gigantischen Hallen ihr so spielt, aber ich merke es schon ganz deutlich, wenn mein System 50 Watt mehr Abwärme rausballert.
Entweder du spielst in einer Besenkammer oder du trollst. 200 Watt oder so merkt man sicherlich, aber nicht 50, dass kannst du keinem erzählen. Ansonsten gibt es auch noch Klima und Belüftungs Anlagen, damit bleibt es sogar bei mir immer absolut konstant gleich kühl, trotz eines Irren Stromverbrauchs
WakeX schrieb:
Und die Steckdosen und Netzteile der 14900K-Käufer so bei der News:
Anhang anzeigen 1407067
Wer eine high end CPU hat, der hat auch ein brauchbares Netzteil. Mein Thor 1600t wird sich trotz 4090 oc und einem eventuellen 14900ks langweilen. Das passt also
 
Ben_computer_Ba schrieb:
Klima und Belüftungs Anlagen, damit bleibt es sogar bei mir immer absolut konstant gleich kühl, trotz eines Irren Stromverbrauchs
Ich glaube, wir wissen, wieso effizienz für dich nicht ganz so wichtig ist
 
  • Gefällt mir
Reaktionen: chaser767 und danyundsahne
1080p

hohe Details

haben in einem CPU-Benchmark nichts verloren

da warte ich lieber auf verlässliche Quellen, die wissen, was sie tun

Letzteres vor allem aber gerade Intel nicht
 
Ben_computer_Ba schrieb:
Ja AMD ist Effizienter, bei spielen und Benchmarks, der Unterschied ist aber geringer, als viele es gerne hätten.
Nein einfach Nein. Aber wenn ich mir deine Signatur anschaue wundern mich solche Aussagen nicht.

der 13900K & 13900KS säuft wie ein schluckspecht und Intel hat was die Effezienz betrifft absolut das nachsehen aktuell. Das muss man sich auch nicht schön reden, es werden ja auch gerne Idle werte herangezogen wenn alle Stricke reißen. Lächerlich.
 
  • Gefällt mir
Reaktionen: berkeley, chaser767, feris und 2 andere
scryed schrieb:
Auch wenn wieder viele mächtig ins horn blasen und Behauptungen aufstellen die nicht war sind solange keiner am 24/7 am cinebench spielen sind wird es null Probleme geben mit einer normalen kühlung

-Temp wird kein Problem
-Strom wird kein Problem Paar Watt mehr als AMD beim spielen ok wird im idle gespart
-Unnötig teuer ja

Im direkten Vergleich wird nichts spannendes passieren auch wenn manche das meinen

Mein 13600K bei der Arbeit dreht voll auf, sobald der mal für 30 Sekunden etwas arbeiten soll.
Das gibt es bei AMD nicht.
Nicht bei der Arbeit und auch nicht zu Hause.

Temps sind sehr wohl ein Problem, warum throtteln Intels immer schnell so viel?

Ein paar mehr Watt in Spielen ist mal das bis zu 3fache.
Mehrfach bewiesen, kann man bei PCGH alles dick und fett anschauen.
In einem Selbstversuch hat es der Redakteur sogar geschafft, einen 7800X3D auf sagenhafte 24W zu drosseln, und hat in dem Spezialbeitrag dabei nur knapp an die 10% Leistung eingebüßt (Boost und SMT deaktiviert, also alleine der Cache liefert trotzdem die FPS).
Damit war das Gerät immer noch eines der schnellsten am Markt, war aber gegenüber einem ungedrosselten 1x900K um das 4,5 oder gar 6fache an Effizienz überlegen.
Damit Verbraucht so ein Prozessor also weniger Strom als die mittlerweile handelsübliche Beleuchtung, die die Leute unbedingt meinen betreiben zu müssen.
Und Apple wird damit seiner Effizienzvormachtstellung auch bezüglich ARM ein Riegel vorgeschoben.

Daher wage ich zu bezweifeln, dass Intel nun auch nur annähernd irgendetwas konkurrenzfähiges auf den Markt bringen kann und wird.
Eher würden die es mit Battlemage schaffen eine 4090 zu knacken und einer 5090 kurz darauf noch Paroli bieten zu können.
Auch eine Utopie.

Das wollte ich mal erwähnt haben, denn Intel ist bei CPU und GPU dermaßen ins Hintertreffen geraten, das wissen einige gar nicht einzuschätzen.
Vor allem, wenn man bedenkt, dass AMD bei den GPU's auch spätestens bei Raytracing dann gegen NVidia bei Standardeinstellung bei der Effizienz, also Watt pro Frame, derzeit kein Land sieht, weiß man das im CPU-Sektor dann noch viel eher zu verstehen, was da bei Intel (im Schlechten) abläuft, auch wenn zumindest da die Grundleistung absolut vorhanden ist und man gefühlt auf Augenhöhe ist.
Aber im Hintergrund wissen alle, die brauchen dringend eine komplett neue Technik, die vor allem massenweise Effizienz rausholt.
Das ist derzeit so Retro Bulldozer Style. 300 Watt und gib ihm was, wie bei der 9xxx Sonderauflage mit noch mehr Takt.
 
  • Gefällt mir
Reaktionen: feris
Gerithos schrieb:
Ich glaube, wir wissen, wieso effizienz für dich nicht ganz so wichtig ist
Das wollte ich damit nicht sagen. Es ging darum, dass man auch ohne Klimaanlage oder vergleichbares keinen Unterschied merkt, ob das System 50 Watt mehr oder weniger verbraucht, wie vorher behauptet wurde. Und mit Klima sind eben sogar Verbrauche mit Unterschieden mit +-500watt nicht spürbar.
Taggo schrieb:
der 13900K & 13900KS säuft wie ein schluckspecht
Wenn du ihn dauerhaft forderst natürlich, sonst aber eben nicht. Während des Spielens in 3840 x 1600 ist mein 13900k relativ sparsam. Im idle wie schön erwähnt gar nicht erst zu sprechen. Der säuft also nur in wenigen Ausnahmen, wie sehr CPU lastigen spielen oder in Benchmarks/ beim rendern.
Taggo schrieb:
Das muss man sich auch nicht schön reden, es werden ja auch gerne Idle werte herangezogen wenn alle Stricke reißen. Lächerlich.
Lächerlich ist es, den idle Verbrauch unter den Tisch zu kehren. Viele Nutzer sind die meisten Zeit eben am surfen, filme/Serien schauen oder machen eben normales Home Office, wenn 8h Home-Office gemacht wird, macht das einen erheblichen Unterschied. Häufig laufen Rechner auch, ohne das jemand dran sitzt, dort zählt auch der idle Verbrauch
 
  • Gefällt mir
Reaktionen: Quidproquo77
Simanova schrieb:
Bei den Taktraten fressen die genauso viel Strom wie damalige P-Cores.
Das weist du woher?
BxBender schrieb:
In einem Selbstversuch hat es der Redakteur sogar geschafft, einen 7800X3D auf sagenhafte 24W zu drosseln, und hat in dem Spezialbeitrag dabei nur knapp an die 10% Leistung eingebüßt (Boost und SMT deaktiviert, also alleine der Cache liefert trotzdem die FPS).
Den Artikel hätte ich hier gern mal verlinkt
BxBender schrieb:
Daher wage ich zu bezweifeln, dass Intel nun auch nur annähernd irgendetwas konkurrenzfähiges auf den Markt bringen kann und wird.
Deren derzeitige CPUs sind doch Konkurrenzfähig
BxBender schrieb:
Das wollte ich mal erwähnt haben, denn Intel ist bei CPU und GPU dermaßen ins Hintertreffen geraten, das wissen einige gar nicht einzuschätzen.
Deren größtes Problem war die Fertigung, das haben sie ja nun endlich mal hinbekommen, d.h. das es dann auch mal CPUs in < 10nm geben wird. Damit einhergehend wird auch die Leistungsaufnahmen sinken.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Ben_computer_Ba
Der 14900k wird ungefähr genauso schnell wie der 13900KS. Das kann man jetzt bereits als Fakt sehen.
Also nicht mal im Ansatz schneller als ein 7950X3D, sondern siehe bereits existierende Tests um die 8% langsamer. Und gegen Zen5 wird der keine Schnitte sehen.
Das wird ein sehr sehr trauriger Release werden. Intel muss hier in jedem Fall über den Preis punkten.
 
Ben_computer_Ba schrieb:
Lächerlich ist es, den idle Verbrauch unter den Tisch zu kehren. Viele Nutzer sind die meisten Zeit eben am surfen, filme/Serien schauen oder machen eben normales Home Office, wenn 8h Home-Office gemacht wird, macht das einen erheblichen Unterschied. Häufig laufen Rechner auch, ohne das jemand dran sitzt, dort zählt auch der idle VeVerbrauch.
Ja das siehst du so...aber nicht alle.

Also ich zb zocke am Rechner...was der im Idle schluckt ist mir (fast) egal. Da ich nach dem hochfahren ca. nach 30Sec das Game geöffnet habe.

Mein Verhältnis surfen/YT/Desktop vs Gaming besteht ca aus 20:80.
Und wenn ich YT ansehe, mach ich das auf der Couch mit dem Handy. ;) gemütlicher

Und ich bin auch im Homeoffice...aber dafür nutze ich den Firmen Laptop. Nicht den Gaming Rechner, sorry. Da brauche ich auch keinen 13900/14900K für.

Also ich muss @Taggo hier schon Recht geben.
Nur weil man den Stromverbrauch unter Last/Gaming/etc des Intels nicht wirklich wahr haben will, so kommen viele immer mit idle Verbrauch. Wow.

Ja kauft euch alle nen Intel um mit Idle Verbrauch zu prahlen...hat Taggo nicht ganz Unrecht ;)
 
  • Gefällt mir
Reaktionen: berkeley, iron_monkey, chaser767 und 2 andere
danyundsahne schrieb:
Nur weil man den Stromverbrauch unter Last/Gaming/etc des Intels nicht wirklich ahar haben will, so kommen viele immer mit idle Verbrauch. Wow.
Auch wenn mir die Art deiner Argumentation nicht gefällt muss ich dir Recht geben. Am Ende zählt der Verbrauch unter Last, der im idle ist Beiwerk. Mein Rechner läuft auch mal wenn ich nicht drann sitze und Sachen wie YT und Office stellen die CPUs schon lange nicht mehr vor Herausforderungen aber gekauft wird trotzdem nach dem Maximalwert
 
Ben_computer_Ba schrieb:
Viele Nutzer sind die meisten Zeit eben am surfen, filme/Serien schauen oder machen eben normales Home Office, wenn 8h Home-Office gemacht wird, macht das einen erheblichen Unterschied. Häufig laufen Rechner auch, ohne das jemand dran sitzt, dort zählt auch der idle Verbrauch
Das hat aber nichts mit idle zutun. Ich hab darüber gesprochen wie viele dann immer mit den idle Verbrauch und die Ecke kommen. Wen juckt der idle Verbrauch ? Ob nun 10W oder 20W was spielt das schon für eine Rolle ?


Spätestens wenn die Kiste dann auf Hochtouren läuft wird der Unterschied schon größer.

Mein i7 11700F ist genauso ein Schluckspecht :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: danyundsahne
meisterkatzen schrieb:
So wenig gespannt auf eine "neue" Generation war ich noch nie, bin beim Lesen der Nachricht quasi im Idle und spare so 200W.
Wieder so ein 24/7 Prime95 Mensch :p
In Spielen sind es 30-40W Differenz zum 7800X3D laut dem Lesertest der genau darauf einging.

Das sind 0,008 bis 0,010€ die Stunde in Spielen …
Noch nie etwas gehört das weniger relevant für die Stromrechnung ist :p

danyundsahne schrieb:
Also ich zb zocke am Rechner...was der im Idle schluckt ist mir (fast) egal. Da ich nach dem hochfahren ca. nach 30Sec das Game geöffnet habe.
Glückwunsch, absolute Ausnahme :rolleyes:
danyundsahne schrieb:
Mein Verhältnis surfen/YT/Desktop vs Gaming besteht ca aus 20:80.
Wie jetzt ich dachte nach 30sek ist das Spiel gestartet?
danyundsahne schrieb:
Und wenn ich YT ansehe, mach ich das auf der Couch mit dem Handy. ;) gemütlicher
Ansichtssache :p
danyundsahne schrieb:
Und ich bin auch im Homeoffice...aber dafür nutze ich den Firmen Laptop. Nicht den Gaming Rechner, sorry. Da brauche ich auch keinen 13900/14900K für.
Ich auch nicht. Aber warum am popligen Notebook sitzen, wenn der Rechner schon da ist?
Ergibt für mich keinen Sinn.
danyundsahne schrieb:
Also ich muss @Taggo hier schon Recht geben.
Nur weil man den Stromverbrauch unter Last/Gaming/etc des Intels nicht wirklich wahr haben will, so kommen viele immer mit idle Verbrauch. Wow.
Nochmal beim Gaming sind es 0,008 - 0,010€ Differenz zwischen Ryzen 7000X3D und 13. Gen. Intel.
Ein Witz sich darüber als berufstätiger Mensch Gedanken zu machen.
Für 24/7 Prime95 sieht es natürlich anders aus :p
danyundsahne schrieb:
Ja kauft euch alle nen Intel um mit Idle Verbrauch zu prahlen...hat Taggo nicht ganz Unrecht ;)
Keiner prahlt, der Idle Verbrauch ist für die meisten relevanter als die 0,008 - 0,010€ Differenz beim Gaming, aber dennoch genauso irrelevant für die Stromrechnung.

Summier doch mal die Differenz an Kosten, das sind kindische Beträge für 500€ UVP CPUs …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ben_computer_Ba
Taggo schrieb:
Das ist doch nicht der von mir genannte aktuelle Lesertest?

Aber selbst die dort genannten 70W Differenz (78 zu 148) sind gerade einmal 1,8 Cent die Stunde bei aktuellen Strompreisen, die zudem in Deutschland mit zu den höchsten weltweit gehören.
Bei durchschnittlich 4-5 Stunden Gaming die Woche kommen wir da auf 7,2 bis 9 Cent Ersparnis die Woche :p
Anderswo auf der Welt entsprechend noch irrelevanter.

Aber klar einfach keine Werte nennen und „fast das [D]oppelte“ klingt eindrucksvoller :rolleyes:
Ergänzung ()

Taggo schrieb:
Das hat aber nichts mit idle zutun. Ich hab darüber gesprochen wie viele dann immer mit den idle Verbrauch und die Ecke kommen. Wen juckt der idle Verbrauch ? Ob nun 10W oder 20W was spielt das schon für eine Rolle ?
Andersherum gefragt - wen jucken 0,008€-0,01€ beim Spielen für die wenigen Stunden, die ein berufstätiger Mensch dazu kommt? Was spielt das schon für eine Rolle?
Taggo schrieb:
Spätestens wenn die Kiste dann auf Hochtouren läuft wird der Unterschied schon größer.
Nur wie oft hast du Prime95 oder ähnliche Programme am Laufen? Da fällt Idle bei den meisten vermutlich mehr auf, wenn einem schon was auffallen will.
Taggo schrieb:
Mein i7 11700F ist genauso ein Schluckspecht :D
Jede andere CPU mit Prime95 auch - aber die wenigsten haben über lange Zeit 100% bei einer Desktop CPU, dafür gibt es Workstation CPUs.
Ergänzung ()

sikarr schrieb:
Auch wenn mir die Art deiner Argumentation nicht gefällt muss ich dir Recht geben. Am Ende zählt der Verbrauch unter Last, der im idle ist Beiwerk.
Falsch, am Ende zählt die Summe auf der Stromrechnung - und da wird die Wahl des Herstellers deiner CPU keine große Differenz bedeuten wenn wir hier selbst unter Last gerade einmal in den Centbereich kommen …
sikarr schrieb:
Mein Rechner läuft auch mal wenn ich nicht drann sitze und Sachen wie YT und Office
Eben, wie bei den meisten vermutlich.
 
Zuletzt bearbeitet:
sikarr schrieb:
Auch wenn mir die Art deiner Argumentation nicht gefällt muss ich dir Recht geben. Am Ende zählt der Verbrauch unter Last, der im idle ist Beiwerk. Mein Rechner läuft auch mal wenn ich nicht drann sitze und Sachen wie YT und Office stellen die CPUs schon lange nicht mehr vor Herausforderungen aber gekauft wird trotzdem nach dem Maximalwert
Ja klar, und der Maximalwert besteht immer aus seinen höchsten Anforderungen....entweder Gaming oder eben Anwendungen, oder beides.
Man will das ja auch genießen. Logo

Aber diese Diskussionen immer um den Idle Verbrauch seitens so einiger Intel User entstand erst (!) seitdem AMD schneller UND dabei noch extrem sparsamer ist unter exakt diesen Anforderungen im Gaming und unter Last.

Vorher gab es immer nur die Diskussionen, dass Intel CPUs doch der heilige Gral fürs Gaming sind, da sie immer schneller als AMD CPUs waren. Verbrauch war hier immer egal, Hauptsache schneller als AMD und alles war gut. Und das Gehate auf die ach so schlechten AMD CPUs war riesig. Trotz mehr Verbrauch war AMD langsamer.

Jetzt ist es genau andersrum und nun kommt man immer und immer wieder mit dem IDLE Verbrauch, nur weil es ein Punkt ist, in dem Intel aktuell nen Vorteil hat.
Im Rest aber dann doch effizienztechnisch weit abgeschlagen sind.

Diese wahnwitzigen idle Verbräuche von 20-40W die ein AMD System mehr als ein Intel system zieht, das stand vor AMDs Erwachen NIE zur Debatte. Überhaupt gab es davor keine IDLE Diskussionen :D

Und plötzlich münzt man diesen kleinen Vorteil Intels um in eine riesige Welle an Desktop/Idle/Office/YT-Nutzen seitens der Intel Fans.

Zocken die denn plötzlich nicht mehr?
Bei manchen kommts mir so vor.

Das ist schon sehr auffällig, meinst du nicht auch?

Naja, seis drum...das ist halt mein Empfinden was mir so seit Monaten/Jahren um diese Verbrachssache auffällt.
 
  • Gefällt mir
Reaktionen: iron_monkey und Enyo79
Rock Lee schrieb:
Der 14900k wird ungefähr genauso schnell wie der 13900KS. Das kann man jetzt bereits als Fakt sehen.
Also nicht mal im Ansatz schneller als ein 7950X3D, sondern siehe bereits existierende Tests um die 8% langsamer.
Halt, du hast deinen Beleg vergessen:
IMG_1079.jpeg

Ach, sind ja doch nur 3% :)
Schön, dass sich beide so wenig geben, da sind wir ja fast im Bereich Messtoleranz.
Rock Lee schrieb:
Und gegen Zen5 wird der keine Schnitte sehen.
Wann kommt Zen 5 nochmal? Auch diesen Monat?
Rock Lee schrieb:
Das wird ein sehr sehr trauriger Release werden. Intel muss hier in jedem Fall über den Preis punkten.
Mein 13700K (16C) war 10% günstiger als der 7800X3D (8C) und hat dabei laut CB knapp 50% mehr Leistung und keine 5% weniger in Spielen, da ging es auch alleine über Preis/Leistung.

Nun ist der 7800X3D günstiger, da 500€ zu viel für einen reinen 8-Kerner waren - schön, wenn die Hersteller sich so um die Käufer schlagen müssen :)
Ergänzung ()

danyundsahne schrieb:
Ja klar, und der Maximalwert besteht immer aus seinen höchsten Anforderungen....entweder Gaming oder eben Anwendungen, oder beides.
Man will das ja auch genießen. Logo

Aber diese Diskussionen immer um den Idle Verbrauch seitens so einiger Intel User entstand erst (!) seitdem AMD schneller UND dabei noch extrem sparsamer ist unter exakt diesen Anforderungen im Gaming und unter Last.

Vorher gab es immer nur die Diskussionen, dass Intel CPUs doch der heilige Gral fürs Gaming sind, da sie immer schneller als AMD CPUs waren. Verbrauch war hier immer egal, Hauptsache schneller als AMD und alles war gut. Und das Gehate auf die ach so schlechten AMD CPUs war riesig. Trotz mehr Verbrauch war AMD langsamer.
Ganz ehrlich - vorher hat es einfach keinen interessiert, warum auch bei den Centbeträgen, um die es hier bei 500€+ CPUs selbst bei deutschen Strompreisen geht …

Nun wo AMD und Intel nur 3% auseinanderliegen suchen sich die Leute ein neues Hobby und echauffieren sich über 0,004€ Differenz im Idle oder 0,008€ beim Spielen :lol:
Beides recht irrelevant für die Stromrechnung.

Bulldozer war ja ein ganz andere Drama - da lag man nicht nur 3% hinten mit der Leistung und dennoch hat das Ding geglüht.

Seltsam sind immer nur die Personen, bei denen 20W im Idle irrelevant, 40W in Spielen dann plötzlich jedoch relevant sind.
Beides fällt auf der Stromrechnung nicht auf, sofern man nicht 24/7 im Homeoffice sitzt oder 24/7 zockt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und danyundsahne
Zurück
Oben