9800X3D performt mit RTX 4070 schlechter als I9-9900K?

cyberpirate schrieb:
Der was aussagt wenn man einen Spiele PC nutzen will? Wenn Ich zb nicht zocke am Gamer pC ist der meistens auch aus. Und selbst wenn ob Ich im IDLE jetzt 10W mehr verbrauche aber dann beim zocken wiederum 100w spare bedeutet das jetzt genau was? Kannst Du das genauer erläutern?
Der Rechner mit 9700K und 4060ti braucht 70W im Idle, der Rechner mit 7700 und 6900XT 110W. Macht mich nicht arm, aber nervt. Geht dir das auch so oder warum reagierst du so genervt?
 
Ja ich kaufe mir halt alle ca. 6 Jahre einen neuen Gaming Rechner. Zwischen drinnen wird halt auch die GPU einmal Geupdated. Das heißt, dass ich bis 2029 die RTX 5080 verwenden und dann bis 2031 oder 2033 ne RTX 7080. Die RTX 5080 kostet ja die hälfte einer RTX 5090. Das heißt das Setup hält locker 6 Jahre und anstatt jetzt einer 5090 kauf ich halt in vier Jahren nochmal ne 80er und komme dann auf den Preis einer 90er.
Anspruch ist halt schon 4k Gaming bei mir.
 
I.d.R. ist es immer sinnvoller zuerst die GPU aufzurüsten und dann die Gesamtleistung zu beurteilen. Ist weniger Arbeit und zumeist auch günstiger. Die Plattform kann man dann immer noch upgraden wenn nötig.

Die spannende Frage die bleibt ist ob du auch zeitnah eine 5080 zu deiner Preisvorstellung bekommen wirst.
 
frames p. joule schrieb:
Der Rechner mit 9700K und 4060ti braucht 70W im Idle
Was eigentlich schon zu viel ist, da sind 40-45W möglich (mit dem richtigen Netzteil).
Mein 13700K braucht mit iGPU 25W, mit einer 4090 sind es um die 52W (4K@120Hz)

Den Typ oben, der 100W beim zocken sparen will, sollte man nicht ernst nehmen und Ihn in seinem Glauben lassen. Realistische Zahlen gibt es hier.
 
@Tim275: Ist das Mainboard-Bios aktuell? ResizableBar aktiviert? Ist der aktuelle AMD-Chipsatz-Treiber installiert? Ist die Firmware der NVMe aktuell?

Wenn man diesen Thread liest, dann fragt man sich natürlich, wozu PCIe 4.0 überhaupt entwickelt wurde, wenn eine RTX4070 bei PCIe 3.0-Anbindung ins Graka-Limit läuft und eine PCIe 4.0-Anbindung das selbe Ergebnis liefert. Und auch ResizableBar (soweit aktiviert) hat hier wohl keine Auswirkung.
 
mwh.re schrieb:
Wenn man diesen Thread liest, dann fragt man sich natürlich, wozu PCIe 4.0 überhaupt entwickelt wurde, wenn eine RTX4070 bei PCIe 3.0-Anbindung ins Graka-Limit läuft und eine PCIe 4.0-Anbindung das selbe Ergebnis liefert.
Weil neu halt gleich besser in den Augen der meisten, heißt aber nicht dass die Karten das brauchen. Eine 4070 hat so wenig Bandbreite die braucht kein Pcie 4.0 aber es gibt halt auch noch die 4090 (Selbst die braucht nicht unbedingt Pcie 4.0 weil sie nur ca 2-3% Leistung dadurch verliert) und die kommende 5090.

Klartext ist 4000er Karten brauchen eigentlich kein Pcie 4.0 und die 5000er Karten brauchen auch kein PCIE 5.0, das brauchen vielleicht die 6090 oder 7090 in ein paar Jahren mal aber ein Mainboard oder eine GPU welche jetzt mit PCIE 5.0 werben verkaufen sich halt besser als mit PCIE 4.0.
 
frames p. joule schrieb:
Der Rechner mit 9700K und 4060ti braucht 70W im Idle, der Rechner mit 7700 und 6900XT 110W. Macht mich nicht arm, aber nervt. Geht dir das auch so oder warum reagierst du so genervt?
Wie kommst Du darauf? bin nicht genervt. Und selber nutze Ich einen Intel 12700K zum zocken. Bin aber gerade dabei einen 9800X3D zusammenzustellen und bald in Betrieb zu nehmen. Und ja mir ist es egal was ein Gaming PC im Idle verbraucht. Denn wie jetzt x fach geschrieben habe Ich selbst wenn Ich mal eine Stunde Youtube schaue es nach 6 Minuten zocken wieder raus. Und wie auch schon oft gesagt sieht man ja deutlich wie es mit der gesamt Effizienz ausschaut:

https://www.pcgameshardware.de/CPU-...r-Effizienz-Index-fuer-Prozessoren-1341682/3/

mehr bedeutet hier gleich besser! Ich sehe hier Intel erst wenn man weit nach unten scrollt.
 
  • Gefällt mir
Reaktionen: ToroRosso
till69 schrieb:
Den Typ oben, der 100W beim zocken sparen will, sollte man nicht ernst nehmen und Ihn in seinem Glauben lassen.
Nun ja als IDLE Missionar willst Du eben immer nur darauf schauen. Nur die wenigsten interessiert das überhaupt. Und ja klar der Intel ist im Leerlauf super! Aber Ich und sicher viel andere erwarten von Ihrer CPU, gerade wenn es zb um einen Gaming PC geht, doch was anderes. Und hier geht es diesen Menschen wohl eher darum wie effizient die gewählte CPU ist! Und da kann man dem Minister für IDLE auch 1000x aufzeigen was alle Test zu den X3D CPU´s sagen:

1737181642794.png1737181397862.png1737181307013.png

so könnte Ich noch viele auflisten. Jeder Test belegt die enorme Effizienz der X3D CPU´s. Und nochmals jeder weiß, auch Dank Till69, das diese AMD CPU´s im IDLE mehr verbrauchen als ein Intel. Was dann aber im Gesamtrating einfach irrelevant ist. Wer also zocken will auf höchstem Niveau und dabei wert auf eine möglichst hohe Effizienz legt kauft zur Zeit AMD. Was auch alle Kauf Zahlen mehr als bestätigen. Wer allerdings nur im IDLE hängt der kann sicher besser Intel wählen.

Für mich zb dann auch ein kleiner Vorteil weil mein jetziger 12700K dann den 5600G ablösen kann da Ich zum zocken auch auf X3D wechseln werde.

@till69: Ich wünsche Dir weiterhin viel Spaß bei Deiner IDLE Mission. Wäre interessant wie viele sich hier überzeugen lassen satt einem AMD dann doch einen Intel zum zocken zu kaufen?

PS: Mal eine Frag an Dich. Ist es Dir nicht selbst ein wenig peinlich wenn Du immer und immer wieder mit de dergleichen Leier kommst? So das selbst Neulinge hier schon direkt merken auf welchem Kreuzzug Du bist?
Harald-Töpfer schrieb:
Ohne Witz ey in jedem Thread kommst du mit der selben Leier um die Ecke. Ich bin neu hier und selbst mir fällt das auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H1ldegunst und Sinatra81
Tim275 schrieb:
ich kaufe mir halt alle ca. 6 Jahre einen neuen Gaming Rechner.
Und dafür hast du dir auch genau die richtige CPU ausgesucht bei deinem Budget, nämlich die Beste.
Lass dich nicht verrückt machen von den Idle-Missionaren und sonstigen Kreuzrittern.

Übers CPU- und GPU-Limit hast du auch noch was gelernt. Alles in allem war das doch ein Erfolg:daumen:
 
@cyberpirate lass jut sein, nur schlecht fürs Herz. ✌️
 
  • Gefällt mir
Reaktionen: cyberpirate
mwh.re schrieb:
@Tim275: Ist das Mainboard-Bios aktuell? ResizableBar aktiviert? Ist der aktuelle AMD-Chipsatz-Treiber installiert? Ist die Firmware der NVMe aktuell?

Wenn man diesen Thread liest, dann fragt man sich natürlich, wozu PCIe 4.0 überhaupt entwickelt wurde, wenn eine RTX4070 bei PCIe 3.0-Anbindung ins Graka-Limit läuft und eine PCIe 4.0-Anbindung das selbe Ergebnis liefert. Und auch ResizableBar (soweit aktiviert) hat hier wohl keine Auswirkung.
Das Mainboard Bios hatte ich total vergessen, habe es jetzt geupdated und es scheint tatsächlich die niedrigeren Frames etwas auszugleichen. Gerade in WoW Classic hatte ich im Raid gestern 220FPS, glaube das ist mehr als vorher. (ist ja auch ein CPU lastiges spiel)
In Vermintide 2 sind sie allerdings immernoch zu niedrig. Kann aber auch die Optimierung sein.

In den anderen Spielen scheint es jetzt auf dem Level des alten PCs zu sein.

ResizableBar scheint nur für RTX 30 Series zu sein oder ist das auch Aufwärtskompatibel?

NVMe und Chipset sind auf dem aktuellen Stand.
 
ResizableBar funktioniert auch mit RTX 40er-Karten. Im Mainboard-Bios „Above 4G” aktivieren und dann „ResizableBar” auf Auto einstellen. Sollte bei einem Gigabyte-Board so möglich sein - war zumindest bei meinem Board so.
 
Zuletzt bearbeitet:
Zurück
Oben