News 3D V-Cache gegen 6 GHz: 7950X3D oder i9-13900K(S), wer ist euer Favorit?

WebBeat84 schrieb:
Ich bleib noch die nächsten Jahre beim x570S mit 5800X3D... nur die Grafikkarte wird mal aufgerüstet bei Bedarf, denn in hohen Auflösungen ist eh eher die GPU als die CPU der Flaschenhals.
Und selbst meine 6800(nonXT) schafft JEDES Spiel OHNE RT Mist über 60fps in maximalen Details und 4K.
Ohne RT bräuchte es auch keine 4090 oder sowas, da einfach überdimensioniert.

Meine Nächste Grafikkarte wird ne 7000er, mal schauen wie die Preise noch fallen... hat noch Zeit...
Stimmt ebenfalls nicht ganz

Es gab Spiele die auch eine 3090 in Knie zwangen also kann deine 6800 auch nicht jedes spiel in 60fps darstellen

Außerdem gibt es auch Leute die mit bis zu 120fps Spielen wollen...

Ergo hat die 4090 schon ihre Daseins Berechtigung

Nicht immer alles pauschalisieren und von sich auf andere schließen
Eher mal über den Tellerrand hinaus schauen
 
till69 schrieb:
Oder objektiver Vergleich aufgrund einer kontrollierten Umgebung, aber dennoch ein praktischer Vergleich.

Ich habe mich sowohl in der Theorie als auch in der Praxis für den 7950X3D entschieden und das hauptsächlich aufgrund der besseren Kühlbarkeit. Der 13900K ist eine gute CPU, die bestimmt auch noch Spielraum für Optimierungen liefert, den es allerdings auch für das AMD Pendant gibt.
Und wie schon erwähnt, unter dem Strich mag es sein, dass sich die beiden CPUs beim Energieumsatz kaum unterscheiden. Der 13900K erzeugt diese nur zu einem wesentlich ungünstigeren Zeitpunkt.
 
  • Gefällt mir
Reaktionen: Whetstone und Majestro1337
War die Diskussion zu Athlon 64 / P4 Zeiten auch schon so hitzig? Ich erinnere mich leider nicht mehr daran.

Ich tendiere zu weniger Verbrauch, daher finde ich die AMD CPUs besser, aber das ist meine subjektive Meinung. Von dem was hinten raus kommt, schenken sich beide wenig. Das ist perfekt für uns Konsumenten!
 
kratos31 schrieb:
Stimmt ebenfalls nicht ganz

Es gab Spiele die auch eine 3090 in Knie zwangen also kann deine 6800 auch nicht jedes spiel in 60fps darstellen

Außerdem gibt es auch Leute die mit bis zu 120fps Spielen wollen...

Ergo hat die 4090 schon ihre Daseins Berechtigung

Nicht immer alles pauschalisieren und von sich auf andere schließen
Eher mal über den Tellerrand hinaus schauen

Sag mir welches Spiel eine 3090 in die Knie zwingt bzw. keine 60fps schafft OHNE RT in 4K? GIBT KEIN EINZIGES!

Klar mehr fps aber ich hab von 60fps geredet.
Mit RT schafft fast nur eine 3090 bzw. 4090 60fps in 4K, wenn überhaupt.
 
Du meine Güte! Als gemütliche Abendlektüre habe ich den gesamten Thread gelesen. Was hier teilweise für hanebüchener Mist abgesondert wurde... Mancher sollte einen spätabendlichen Sonntagsspaziergang erwägen, um den Kopf abzukühlen. ;)
 
  • Gefällt mir
Reaktionen: Whetstone, edenjung, Kalsarikännit und 6 andere
t3chn0 schrieb:
@Syrato

Ich glaube es sind mehr als nur 10W. Wenn ich das mit meinem 12900K vergleiche, standen dort im Idle auf meinem Netzteil immer ca. 65-70W. Jetzt bin ich bei 105W mit dem 7900X.
Ich gehe davon aus, dass du beim 12900k auch nicht so ein Board hattest, das X670E nutzt doch PCIe 5.0, das braucht doch ein bisschen mehr. Sonst hat sich nichts verändert, neue Monitore, Lüfter oder so?
 
Dome87 schrieb:
Wirkt immer so, als wäre AMD das Gute und Intel das Böse.
Naja, ich will's mal so sagen: Die schäbigen bis illegalen Verhaltensweisen von Team Blau in aller Vergangenheit und ihrer anscheinend ewigen Mantra „Tod dem Wettbewerb!“ (nicht nur gegenüber AMD allein), lassen Viele, besonders aber vergangenheitskundige Kunden reflexartig etwaige Schubladen öffnen.

Das ist aber allein Intel selbst zuzuschreiben mit ihren Geschäftsgebaren, das muß klar sein. Niemand zwingt einem, korrupt zu werden und Wettbewerber mit allen Mitteln zu behindern, anstatt sich mit Innovationen zu messen.

Daher kommt ja auch von Vielen die oft genossene Karma!-Schelte bei Intel's Rückschlägen.
Weil, Wer den Schaden hat, braucht bekanntlich für den Spott nicht zu sorgen.
Bandyto85 schrieb:
Was hier teilweise für hanebüchener Mist abgesondert wurde... Mancher sollte einen spätabendlichen Sonntagsspaziergang erwägen, um den Kopf abzukühlen.
Ist das seit Corona nicht auch schon grenzwertig bis verfassungsfeindlich? So Stichpunkt „Querdenker“?

TechFA
 
  • Gefällt mir
Reaktionen: Whetstone, CMDCake, manfredham und 2 andere
ganz nett alles, aber mein 5900x wird noch mindestens 2 Jahre geprügelt
 
7950X3D oder i9-13900K(S) sind für mich eher Machbarkeitsstudien und nichts für die Masse. Entsprechend sind die CPUs auch bepreist -> jenseits der Vernunft.

Um einen Kern mit bis zu 6GHz zu bekommen, muss ich mir einen 24-Core-Monster kaufen.
Dabei lastet selbst heute noch kaum eine Software mehr wie 2-4 Kerne aus.

Daher: Mein Favorit ist die Mittelklasse, sinnvoll in Ausstattung zu annehmbaren Preis, wenn das System als "eierlegende Wollmilchsau" herhalten muss. Nur für Office und Medienkonsum reicht auch ein aktueller i3. Da hat AMD nichts vergleichbares im Portfolio.
 
@TechFA

Ich kann mit der Moralkeule im Zusammenhang mit Hardware nichts anfangen. Ja, war Mist was Intel gemacht hat. Ist aber auch nichts, was ich nicht auch anderen Firmen zutrauen würde. Der Wettbewerb ist eben kein Ponyhof. Und irgendwann muss es auch mal vergessen sein.

Wenn ich da an Firmen wie Nestlé denke, die sogar bei Menschenleben keine Grenze ziehen, so wirkt das was zwischen Intel und AMD ist eher wie Kindergarten.
 
  • Gefällt mir
Reaktionen: manfredham und Zer0Strat
Objektiv betrachtet ist aktuell der 13700k P/L-Sieger. Der 13900K und der 7950X3D haben nicht mal 10% mehr Leistung in Spielen aber kosten exorbitant mehr.
Der 7800X3D wird P/L hoffentlich wieder dort mitmischen. Je nachdem wo der sich hinsichtlich Preis&Leistung einordnet, wäre der mein aktueller Favorit. Bin aber mit dem 5800X3D noch bestens versorgt.

Der 7950X3D ist aber schon n feines Stück Technik, hatte unter Spielelast nicht so einen geringen Verbrauch erwartet. Finde die Highend Prozessoren zum Spielen aber ganz einfach zu teuer.
 
  • Gefällt mir
Reaktionen: digitalfrost
WebBeat84 schrieb:
Sag mir welches Spiel eine 3090 in die Knie zwingt bzw. keine 60fps schafft OHNE RT in 4K? GIBT KEIN EINZIGES!

Klar mehr fps aber ich hab von 60fps geredet.
Mit RT schafft fast nur eine 3090 bzw. 4090 60fps in 4K, wenn überhaupt.
Schau der Realität ins Auge.....

Red dead redemption 2
(Msaa über 2x)
Cyberpunk 2077
A plague tale Requiem
Tomb raider (mit allen Grafikeffekten)
hogwarts legacy
the witcher 3 next gen
Assassins creed valhalla
Ghostwire tokyo
Gta v (mit allen Grafikeffekten)
Kingdom come deliverance (mit allen Grafikeffekten)

Stimmt so auch nicht ganz es kommt drauf wie rt implementiert wird
In resident evil village etc performant es gut

Aber eine 4090 hat in vielen rt games auch die Power für 120fps mit rt

Und bevor jetzt gesagt wird ich hätte keine Ahnung
(Ich hatte selber eine 3090 die war stark über taktet mit 2,1ghz und hab jetzt eine 4090)
Und gibt hier auch Tests von pcgh

Eine 6800 is schon auch nochmal deutlich schwächer als ne 3090 (gute 20%) also erzähl hier nix mit maxed out in ultra HD bei 60fps und bleib lieber in der Realität

Nur um das zu untermauern
Spider man miles morales test pcgh uhd:
Die 3080ti schafft 60/74.1
Die 6800 42/52.2 (über 40% langsamer)

Ein Tipp lass es lieber 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake
MrHeisenberg schrieb:
Und? Er bleibt trotzdem 200€ günstiger.
Das Ding ist keine Woche auf dem Markt, verstehst du das? Außerdem, das Spitzenmodel heißt KS. Und ja, der X3D kann teuerer sein weil er das bessere Produkt ist. Der Meinung sind dutzende Tests.

Fazit vom Test auf CB:

Der neue Ryzen 9 7950X3D bietet mit dem 64 MB messenden Zusatz-L3-Cache erneut eine bessere Gaming-Performance als der Intel Core i9-13900K und auch der Core i9-13900KS wird knapp geschlagen. Zugleich erreicht die Energieeffizienz ein Niveau, das selbst vom 8-Kern-Vorgänger Ryzen 7 5800X3D nicht übertroffen werden kann, Intels vergleichbar schnelle Core-CPUs liegen um den Faktor 2 zurück.
 
  • Gefällt mir
Reaktionen: Whetstone, edenjung, iron_monkey und 2 andere
Interessante Diskussion hier. Wer mit dem Stromverbrauch eines Intel 13900k oder einer RTX 4090 nicht zurecht kommt, kann ja gerne auf AMD setzen. Wer sich eine CPU oder GPU kauft, die teuer ist und eventuell noch viel Strom zieht, sollte die paar Euro mehr auch für die Stromkosten haben.

Ich für meinen Teil bereue es nicht mir einen 13900 und eine RTX 4090 gekauft zu haben. Im Durchschnitt braucht mein komplettes System in z.B. Warzone 2 im Startbildschirm ca. 230W und auf der Map 360-390W. Ich finde das in Ordnung für das komplette System. Im Idle habe ich ca. 80W Gesamtverbrauch
 
Dome87 schrieb:
Wenn ich da an Firmen wie Nestlé denke, die sogar bei Menschenleben keine Grenze ziehen, so wirkt das was zwischen Intel und AMD ist eher wie Kindergarten.
Da hast du absolut Recht - und dann Frage ich mich umso mehr, warum so immer als Intel -Paladin auftrittst 🤷‍♀️
Die firmenchefs in erfolgreichen Unternehmen sind skrupellose Leute, sonst wären sie keine Firmenchefs. Wer gut und ehrlich ist bleibt klein. Von daher ist es wurst was ich kaufe.
Ich für meinen Teil kaufe allerdings immer dann AMD, wenn sie konkurrenzfähige Produkte hatten. Aber eben nur, weil ich keine Lust auf ein Monopol habe. Die bulldozer-Zeit hat gut gezeigt was das heißt...
 
  • Gefällt mir
Reaktionen: ÖX45, Onkel Föhn und Dome87
Majestro1337 schrieb:
...immer als Intel-Paladin auftrittst
Nur aus Prinzip. Kann das Gehate nicht ab hier :D wäre es andersrum, wäre ich AMD-Paladin ;) Mir ist es auch Jacke wie Hose, ob Intel oder AMD.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Majestro1337
killerkappi schrieb:
Ich denke der 7800X3D könnte interessant werden aber momentan sehe ich bei mir kein Upgrade bedarf auch wenn mein skylake X eher ineffizient ist. Der Intel 13900KS sauft halt einfach viel zu viel
Wie ich einem anderen User schon gesagt habe kommt es auf die Auflösung drauf an

Du hast ja ne 3080ti also gehe ich mal davon aus das du in uhd zockst

In uhd auf 5,7ghz allcore bei 1,2v verbraucht mein ks an die 40w
Getestet in hogwarts legacy in uhd mit rt
 
till69 schrieb:
Richtig eingestellt (UV 100-150mV) ist der Mehrverbrauch nochmals geringer und durch die deutlich bessere Effizienz bei Niedriglast steht am Jahresende dann so ziemlich das gleiche auf der Stromrechnung.
Reden wir hier nicht generell von der so viel beschworenen Out-of-the-Box-Experience (OOTB)?!

Weil damals, als man bei AMD Hand anlegen mußte (RAM-Timings bei zickigem Speicher-Controller), war das Urteil vernichtend, weil die ach so hochgelobte Out-of-the-Box-Experience war ja nicht gegeben!
Da war AMD unten durch, weil es hat zwar funktioniert, wollte aber nicht vom Start weg mit jedem Riegel artig spielen gehen (Samsung B-Die).

Jetzt ist plötzlich frickeln kein Problem, wenn Intel in's Hintertreffen kommt? Da darf ich als Kunde auch noch mühsam Stunden- bis Tage-lang untervolten und zeitraubend mit Datenverlust oder zerschossenem Dateisystem über zig Bluescreens die stabilste Spannung rausfinden, um mich an 24/7 Prime-stable Settings rantasten, nur um exzessive Negativ-Punkte des Produktes auszumerzen und die Banane reifen zu lassen?

Geht doch echt nix über die gute, alte Scheinheiligkeit von F@nb0ys! xD

Pro-Tip: Den AMD kann ich auch untervolten. Dadurch wird die Effizienz im roten Lager sogar nochmal besser.

TechFA
 
  • Gefällt mir
Reaktionen: CMDCake, manfredham, edenjung und 2 andere
Floppes schrieb:
War die Diskussion zu Athlon 64 / P4 Zeiten auch schon so hitzig? Ich erinnere mich leider nicht mehr daran.

Ich tendiere zu weniger Verbrauch, daher finde ich die AMD CPUs besser, aber das ist meine subjektive Meinung. Von dem was hinten raus kommt, schenken sich beide wenig. Das ist perfekt für uns Konsumenten!
Kann ich nur zustimmen. Ich war einige Jahre bei Intel, da die Energiespartechnik besser war. Als Student und heute mit Familie ist mir das wichtig. Deshalb bin ich jetzt auch wieder bei AMD. Ich gebe aber auch zu, dass ich inzwischen mehr Sympathien für den Hersteller hege.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
mcsteph schrieb:
Das Ding ist keine Woche auf dem Markt, verstehst du das?
Der 13900K sinkt schon im Preis. Er wird günstiger bleiben ;)
Es gibt für AMD keinen Grund den Preis des X3D zu senken. Er hat keine wirkliche Konkurrenz.

mcsteph schrieb:
Und ja, der X3D kann teuerer sein weil er das bessere Produkt ist. Der Meinung sind dutzende Tests.
2% Leistung rechtfertigen nicht den 33% höhereren Preis. Das kannst du nicht relativieren.
 
Zuletzt bearbeitet:
Zurück
Oben