News 3D V-Cache gegen 6 GHz: 7950X3D oder i9-13900K(S), wer ist euer Favorit?

JiJiB! schrieb:
Nö Händler


paar Euro is gut, mein Leerlauf sind 350-400 Watt, hab mal wieder nachgeschaut. Das ist nen Euro pro Tag bei mir :evillol:

Mit was für Hardware?
 
Das Thema interessiert mich zwar aber der Aufrüstdruck ist noch nicht hoch genug.

Mein i7 5820K bleibt noch im System.
Gepaart mit RX6800xt
 
  • Gefällt mir
Reaktionen: Trent, Klever und mannduro
So muss das. Solange man noch zocken kann mit dem was man hat ist alles bestens.
Wenns den nur ums Zocken geht.
Überwiegeng tut es das hier !
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Als enthusiast kauft man sich aktuell eine AMD 7950x3D cpu.
Die Alternative ist der 13900k.

Zum zocken von spielen wie ich sie spiele ist amd besser geeignet.

Erst wenn intel 2024 eine neue Fertigung hat kann man wieder zu intel greifen.

Was Software/bios usw angeht ist intel deutlich stabiler.da fühlt sich amd Anfangs sich immer wieder an wie ein beta Release.

Ich hoffe das intel wieder richtig gas gibt 2024 da ich deren Produkte normalerweise vorziehe aber aktuell zu amd greife weil die einfach viel mehr bieten.

ich kaufe das produkt was am meisten in games bietet und das ist AMD
Nur gibt es die 7950x3d nirgends zu kaufen.....

First world problems...
 
Taxxor schrieb:
Zwischen 2700X und 3700X gab es das alles auch nicht, um mir mal ein Beispiel zu nennen. Trotzdem gab es 20% in Games.

Und von 3800X auf 5800X gab es sogar fast 30%, ebenfalls ohne RAM Änderung und PCIe 4.0 interessiert hier auch noch nicht
Es ging ihm aber um von 1700 auf 3900 auf 5950X. Hier ändert sich nicht nur der Chipsatz, sondern auch die Features.

In die AM5 Plattform zu investieren, könnte sich lohnen weil man in Zukunft dann von Ryzen 7000 auf Ryzen 8000 upgraden kann? Also was wäre wenn man sich jetzt einen 7700X holt, und dann in 2 Jahren auf 8900X3D upgradet?

Da ist die GPU ausschlaggebender als die CPU. Schau mal hier auf die 4k Performance:


Oder in Bildern gezeigt:
chrome_TxtzQBOO8b.png


Wahlweise:
chrome_ZyNbjHU9ac.png


Ja, ich zeige hier explizit nur Bilder von 4k Performance, denn ich glaube das jemand der sich eine 2500€ GPU aka RTX 4090 leistet, nicht unbedingt in 1440p oder gar 1080p spielen wird.

Sollte man lediglich eine RTX 4070/7900X/TX oder gar nur RTX 3090 bzw 6900XT besitzen, gibt es defakto kaum mehr einen Unterschied in 4k, sondern nur noch in 1440p. Wobei auch in 1440p der Unterschied mit diesen Leistungsschwächeren Karten in etwa genauso ausfällt.

GPU limitiert je schwächer sie ist und desto höher die Auflösung geht. Nicht CPU. Wer jetzt beispielsweise 7900X bzw 7700X gekauft hat, wird mit 8900X3D bzw 7800X3D in 2 Jahren keinen Grafiksprung erleben. Das geht nur mit neuer GPU.

Ich bin mir mehr als über die Maßen sicher, das wenn man jetzt RTX 4070, 7900XT, RTX 3090, 5900XT hat, in 2 Jahren nicht auf 8900X3D wechselt, sondern lieber auf RTX 5070 oder 8900XT. Das bringt mehr Performance als die CPU zu tauschen.

Lediglich bei Enthusiasten die aktuell 7950X3D oder 13900KS + RTX 4090 besitzen, macht es in 2 Jahren eventuell sinn auf 8950X3D + neue GPU (RTX 5090) zu wechseln. Da reden wir dann über 8K Performance :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und Pleasedontkill
Wenn ich so auf meine Excel-Workbooks und vor allem deren Rechenzeit betrachte, ist Intel mit der größeren SingleCore-Leistung besser. Schaue ich mir die 3D Bearbeitung an, deren Berechnung nach Kernen schreit, ist AMD besser aufgestellt.

Ich habe noch einen AMD Ryzen 3800x im Einsatz. Da kann ich mir bei einer Vollberechnung meines Projektplans locker zwei Kaffee machen. Bei Aufruf eines Makros schaltet Excel in die SingleCore Berechnung. Bei ca. 8.000 Zeilen Makro (VBA) Code kann das mal locker 20 Minuten dauern. Scanne ich etwas mit dem 3D Scanner ein, ist der AMD eigentlich keine so schlechte Wahl. Da läuft die Berechnung der Punktwolken dann mal eben auf 16 Threads.

Bei meinem nächsten System werde ich wohl beide wählen müssen. Eine brachiale Threadripper-Workstation für 3D Arbeiten und einen WasWeißIchFürEinen-Inder-Inside für die Projektplanungen. Und das nur, um etwas Zeit zu sparen. Da das ja im professionellen Umfeld geschieht, sind bei mir immer zwei Systeme einer Art angesagt. Fallsmal einer ausfällt, geht man einfach auf den BackUp und kann weiter arbeiten.

So oder so wird mich das mal wieder eine Stange Geld kosten.
 
Wow, so oft wie ich in den letzten Tagen „Idle“ lesen musste, drängt sich mir doch stark der Eindruck auf, dass die Gamer mittlerweile zu 90% auf dem Desktop abhängen. :D
 
  • Gefällt mir
Reaktionen: Whetstone, Rambo5018, CMDCake und 13 andere
@SVΞN Insbesondere die Intel User :D
 
  • Gefällt mir
Reaktionen: msv und edenjung
SVΞN schrieb:
Wow, so oft wie ich in den letzten Tagen „Idle“ lesen musste, drängt sich mir doch stark der Eindruck auf, dass die Gamer mittlerweile zu 90% auf dem Desktop abhängen. :D
Desktop ist gut, darf man im "Idle" überhaupt etwas benutzen oder ist es sinnloses auf den Desktop starren?
PC einschalten und AFK gehen.... ein PC braucht doch maximal 1 Minute um von 0 auf 100 zu sein, mit allen Programmen.
 
Chilisidian schrieb:
600-800 EUR für das Topmodell sind ziemlich normal schon seit langer Zeit.
Ich wollte 2016 mindestens 8C16T im PC haben. Da waren 600-800€ dafür ein Traum. Anständige CPUs sind spottbillig geworden.
 
Das dämliche herumgereite auf dem angeblichen Idleverbrauch ist albern. Habt ihr euch nie gefragt, warum das keiner testet?
Der Test ist halt schlecht, weil man da ein CH x670e hero vs. Ein CH VIII Hero vs. Ein Maximus Hero testet und das auch noch mit unterschiedlichen CPUs. Da kann nur BS bei rauskommen. Um das zu testen müsste man Boards der verschieden Plattformen mit gleichen VRM haben und alle Verbrauchswerte am Sockel direkt abgreifen.
Solange man den Aufwand nicht vertreibt ist der Idle Verbrauch der CPUs halt nichts anderes als Kaffeesatzleserei.
 
  • Gefällt mir
Reaktionen: edenjung
Syrato schrieb:
Desktop ist gut, darf man im "Idle" überhaupt etwas benutzen oder ist es sinnloses auf den Desktop starren?
Also wenn wir vom „Idle“ im eigentlichen Sinne reden, dann nein. Dann darf man nicht einmal die Maus verwenden.

Aber diese Diskussion ist insbesondere bei einem Gaming-PC aber auch allgemein ohnehin albern.

Wir sprechen hier von 56 Watt (13900K), 60 Watt (13900KS) und 64 Watt (7950X3D). Was man daraus weltbewegendes ableiten möchte, erschließt sich mir nicht.

Aber wer sich eine CPU in dieser Preis- und vor allem Leistungsklasse kauft und dann die ganze Zeit den Idle-Verbrauch seines Systems beobachtet…

Ohne Worte. 😄
 
  • Gefällt mir
Reaktionen: CMDCake, darkR, msv und 12 andere
Wenn ich unter den beiden wählen müsste, würde ich auf jedenfall den 7950X3D nehmen, ganz klare Entscheidung, auch weil er eine ganze ecke Kühler ist und deutlich weniger verbraucht - also das System auch leiser ist.

Bis mein 5800X3D ersetzt wird sind die beiden CPUs sowieso nicht mehr die besten, dann wirds wohl eher ein 9800X3D oder 9900X3D werden.
 
Wenn man ernsthaft zwischen 13900K(S) und 7950X3D wählen muss, kommt aktuell nur der AMD in Frage. Da es die beiden "Halo"-Produkte sind, wäre der Preis sogar ausnahmsweise nicht mehr absolut relevant.

Ausnahme wäre, wenn die eigene Metrik ein Spiel massiv überproportional auf Intel "optimiert" ist.
Aber selbst da... die Effizienz ist einfach mal mehrere Generationen weiter.

Real wird der Kampf aber dann mit dem 7800X3D vs. Intel ausgetragen, da spielt dann wohl eher die Musik.
Da geht es dann auch um P/L und ob AMD eine sehr große Anwendungsschwäche offen lässt und ob diese für eigene Belange überhaupt eine Rolle spielt.

###

Wegen der idle Effizienz, erstmal ein Mobo nehmen das nicht vollkommen sinnfrei seine Umgebung beheizt, das macht inzwischen viel mehr aus.
Zusätzlich die verbaute Anzahl der Lüfter.

Habe ich im idle meine Anlage über Rechner an, weil er halt gerade läuft + Serverdienste für Spiele(100Mbit Upload) anbietet und 192kHz spidf besser sind als BT 44kHz Gedöns, da braucht der kleine D-Class und Boxen um vielfaches mehr als der Rechner selbst-.-
Vom Bildschirm mal ganz zu schweigen.
Habt ihr mal geschaut was euer Router so "im Idle" verballert?
Das hört sich nach Whataboutismus an, aber es zeigt das die Differenz zwischen AMD und Intel im Idle vielleicht 1-2% des Gesamtsetups aus machen.

Man sollte den idle der CPU zwar nicht komplett weg ignorieren, aber da um 5W etc. zu feilschen ist doch etwas unsinnig, den man sollte sich bei langen Idle Zeiten eher überlegen warum der Rechner dann an ist.
Wenn man dafür keine Begründung hat, sollte man diesen dann lieber einfach mal ausschalten und in einer Stunde so viel Strom sparen, das man die Idle-Differenz zwischen Intel und AMD um Tage hereinholt.
Pro Stunde, jede Stunde!
 
  • Gefällt mir
Reaktionen: Rambo5018 und CadillacFan77
Keiner, ich finde beide Herangehensweisen technische "Improvisationen".
Dem Einen fehlt zur Hälfte der Zugang zum 3DCache, der Andere hat "Helferkerne ohne HT" und irgendwie bekommt man zwar die derzeit mit besten Benchmarks, aber fragt sich dennoch, wieviel Potenzial dadurch deswegen liegen gelassen wurde.

Vermutlich wird der AMD 8-Kerner die bessere Spieleleistung liefern, bei besserer Effizienz und der Intel lebt halt vom Legacy Code und viel Halbes hilft auch viel.
 
Telechinese schrieb:
...wieso kann man hier eigentlich kein "Minus" oder "Daumen runter" vergeben...
Google mal: AMD Athlon 64 FX 53 UVP oder i7 3970X und auch andere alte Topmodelle.

Da ist der 13900k schon fast ein Schnäppchen! Dazu der günstige RAM!
 
SVΞN schrieb:
Was man daraus weltbewegendes ableiten möchte, erschließt sich mir nicht.
Wenn man aber Pro Stunde Gaming (Volllast) doch über 8 Stunden rumidlet, dann ist der 13900K doch schon auf Augenhöhe :D Das ist einmal gut durchschlafen ohne den PC auszumachen.

HOT schrieb:
Der Test ist halt schlecht, weil man da ein CH x670e hero vs. Ein CH VIII Hero vs. Ein Maximus Hero testet und das auch noch mit unterschiedlichen CPUs.
Sehe ich aus so, man kann die übrige Kette kaum aus der gleichung rausnehmen. So gibt es Tests beispielsweise auf PCGH, wo Mainboards auch mal schnell 10W differenz haben.

Chilisidian schrieb:
In einem schlecht belüfteten Gehäuse wird auch ein Kühler auf einem 3D laut sein.
Macht doch schon einen Unterschied, ob ich mit nen L9a 70W oder 140W abführen muss. Einen Großen. 140W wird nicht einmal durch meine GPU erzeugt und besitzt dazu noch einen locker doppelt so großen Kühler, ist aber trotzdem noch ein leichter "Störfaktor" unter Last.
Bei größeren Gehäusen ist es natürlich leichter zu Händeln, ist aber trotzdem ein Schwung an Wärmeenergie, die aus dem Gehäuse muss. Bin damals von einem FX8350 auf einen Ryzen 1700 umgestiegen, 125W TDP gegen 75W TDP, der unterschied war auch damals im Midi-Gehäuse und 12er Noctua-Tower spürbar/hörbar
 
Banned schrieb:
Das ist eigentlich echt ein alter Hut mit dem Niedriglastbereich und den Zen-Modellen
Wo ist der Verbrauchstest (Musik hören,Surfen usw.) 13900 gegen 7950x3d für deine Behauptungen?

Banned schrieb:
Es sind durch die Bank weg mindestens 8W zum 7590X3D, außer man nimmt den komplett offenen Brechstange- 13900KS als Vergleich, und selbst dann sind es noch 4W
Wow 4-8 Watt😂. Da nimmst du schnelleren Ram und schon werden aus 4Watt Vorsprung 4Watt Rückstand. Ausserdem ist auch jedes Board verschieden. Übrigens ich finde den Idle Verbrauch beider CPUs zu hoch.
 
Zurück
Oben