9800X3D performt mit RTX 4070 schlechter als I9-9900K?

Ich denke bei den Min-FPS und Frametimes sollte man schon einen Unterschied sehen, aber wenn man keine Vorher-/Nachher-Vergleichsdaten hat und die Titel wirklich permanent im GPU-Limit kleben, kann die CPU da nicht viel machen und die Live-FPS spiegeln das halt so.

Und neben dem messen wäre es ja noch schöner, wenn man die Schwuppdizität und kostanteren Bildraten merkt, sonst es schon etwas Grütze.

@HisN Das mit dem PCIe-Powermanagement ist mal ein geiler Tip! In meinem HTPC wo die SSD auf der Rückseite des Mainboards steckt (natürlich in CPU-Nähe) und auf der anderen Seite ein wärmegedämmtes Seitenteil sitzt, ist das schon ganz geil, denn Luft kommt da nicht hin! Top! (Gut, wenn sie was schaffen muss nützt es am Ende alles nichts, aber wenn die Grundtemp niedriger ist, hat sie vielleicht eine Sekunde mehr bis zum Throtteln)
 
  • Gefällt mir
Reaktionen: ruthi91 und HisN
frames p. joule schrieb:
Wenn du dich fragst ob das Upgrade Sinn ergeben hat, schau besser nicht auch noch auf den Energieverbrauch im Idle.
Der was aussagt wenn man einen Spiele PC nutzen will? Wenn Ich zb nicht zocke am Gamer pC ist der meistens auch aus. Und selbst wenn ob Ich im IDLE jetzt 10W mehr verbrauche aber dann beim zocken wiederum 100w spare bedeutet das jetzt genau was? Kannst Du das genauer erläutern?
 
  • Gefällt mir
Reaktionen: billgast, Cat Toaster und Aduasen
cyberpirate schrieb:
Wenn Ich zb nicht zocke am Gamer pC ist der meistens auch aus
Und andere lassen ein Youtube Video oder Musik laufen, scrollen sich bei Insta zu Tode .... oder verzapfen Unsinn im Netz ... gibt ja viele Möglichkeiten.
 
frames p. joule schrieb:
Wenn du dich fragst ob das Upgrade Sinn ergeben hat, schau besser nicht auch noch auf den Energieverbrauch im Idle.
Ja, der Energieverbrauch von AM5 bei niedriger Auslastung ist wirklich eine Frechheit. Da kann man nicht mehr davon sprechen dass Amd effizienter ist als Intel, denn die Mehrheit der Zeit sind die meisten nun einmal nicht bei maximaler Auslastung sondern eben bei sehr geringer Last. Die wenigsten nutzen ihren Rechner ja nur zum zocken, aber wenn du Office Arbeiten, Video schauen oder einfach im Internet Browsen willst, ist Amd viel ineffizienter als Intel.

Und das alles nur weil die Sockelspannung so extrem hoch ist weil sonst AMDs Expo nicht stabil läuft. Schlecht designed.
 
Das hat nichts mit AM5 zutun. Mindestens zwei
Chips verbrauchen halt mehr als der monolithische Aufbau bei Intel.
 
till69 schrieb:
Und andere lassen ein Youtube Video oder Musik laufen, scrollen sich bei Insta zu Tode .... oder verzapfen Unsinn im Netz ... gibt ja viele Möglichkeiten.

Ja das mag sein. Aber darum geht es doch nicht. Und wie viel Stunden IDLE muss Ich haben um eine Stunde zocken auszugleichen? Aber ist doch gut wenn Du unermüdlich Dein IDLE Verbrauch von Intel predigst. Und ob das wirklich jemanden interessiert der maximal zocken will ist fraglich?
 
Jo, der Idle-Verbrauch der drei Bildschirme, während ich auf den vierten schaue erst. Das ist doch alles für's Aquarium...
 
kachiri schrieb:
Das hat nichts mit AM5 zutun. Mindestens zwei
Chips verbrauchen halt mehr als der monolithische Aufbau bei Intel.
Es ist die Sockelspannung die den ganzen Idlestrom frisst, da liegen 1.3V an und fressen >15W im Leerlauf. AM5 chipset ist Kacke gemacht, die Cpu selbst ist ja relativ Energieefizient.
 
wenn man den Preis im Hinterkopf behält und deine Angaben sollten gegenüber i9 stimmen (1 - 2 Fps) ist das schon sehr ernüchternd. Aber vielleicht sind es auch einfach nicht die richtigen x3d Spiele ;)
 
Rockbreak schrieb:
Es ist die Sockelspannung die den ganzen Idlestrom frisst, da liegen 1.3V an und fressen >15W im Leerlauf. AM5 chipset ist Kacke gemacht, die Cpu selbst ist ja relativ Energieefizient.
Es war bei AM4 nicht wesentlich anders. Mag vielleicht auch am Chipsatz liegen. Liegt aber vor allem daran, dass allein der IO-Chip seine 10-15 Watt durchgehend zieht.
Ist im Endeffekt aber auch nicht wirklich nennenswert...

vaN schrieb:
wenn man den Preis im Hinterkopf behält und deine Angaben sollten gegenüber i9 stimmen (1 - 2 Fps) ist das schon sehr ernüchternd. Aber vielleicht sind es auch einfach nicht die richtigen x3d Spiele ;)
Wo sollen die FPS herkommen, wenn die GPU nicht mehr liefern kann?
 
er schrieb das er weniger hat @kachiri
 
kachiri schrieb:
Ist im Endeffekt aber auch nicht wirklich nennenswert...
Eine Cpu die mit 65W TDP angegeben ist (Wenn wir mal einen 7600 als Beispiel für AM5 nehmen) letztendlich aber schon alleine 25W und damit fast die Hälfte der TDP im Leerlauf zieht selbst wenn gar keine Last anliegt bwz. bei maximaler Last 90W PPT zieht ist für mich schon nennenswert, da der ahnungslose Kunde glaubt er kauft hier eine sparsame 65W Cpu was es aber nicht ist.

Das ist der Unterschied von "Ui Amd hat ja so einen effizienten 65W Chip" zu "Wow Amds 6Kern Chip ist ja absolut Kacke was Effizienz angeht"

Zum Vergleich, mein uralter über 10 Jahre alter Haswell Chip im 22nm Format zog 2-4W im Idle. 2-4W gegenüber 25-28W bei nem 7600. Wenn du das System 10 Stunden am Tag nutzt zum arbeiten als home office, surfen, Videos oder Filme schauen etc. sind das 200W am Tag, 6kW im Monat oder 72kW im Jahr. Nach 5 Jahren hast du dann 150€ und damit fast den Neupreis eines 7600 alleine an extra Stromkosten bezahlt. Klar ist das keine Katastrophe aber es ist trotzdem mega ärgerlich. Ein 6Kerner sollte keine 25-28W im Idle ziehen, damit ist ein 7600 im Idle stromhungriger als so manche 4090 und damit ist es einfach falsch dass Leute glauben Amd chips wären besonders sparsam.
 
vaN schrieb:
er schrieb das er weniger hat @kachiri
Ja so "eher" klingt "eher" nach "Gefühl", als tatsächlich nach "gemessen".

@Rockbreak Also 2,50 Euro im Monat. Was dann im Gaming wieder ausgeglichen wird ;)

Und das es weniger am Sockel oder Chipsatz liegt, zeigen dir halt die APUs von AMD, die im Endeffekt genauso effizient sind, wie Intel. AMD ist hier einfach weniger effizient, weil: Multichip-Design.
 
Alles klar Leute, ich Danke nochmals!
In dem fall ist alles in Ordnung. Mal abgesehen von dem hohen Idle verbrauch. Aber da hätte ich vorher besser schauen müssen.
Das mit der M.2 SSD werde ich testen sobald ich Zeit habe.
Die Grafikkarte werde ich aufrüsten sobald die neuen Karten auf dem Markt sind.
Die RTX 4070 von der hier die Rede ist, ist noch meine alte Grafikkarte die momentan im neuen Rechner läuft.
Zukünftig wird es dann eine RTX 5080.
Also im Grunde habe ich die gleiche Grafikkarte mit neuem Prozessor und System getestet.

Hat noch jemand ne Idee zu den Mainboard Temperaturen?
Der eine Chip wird beim Zocken 53 Grad heiß. Ist das im Rahmen?

vaN schrieb:
wenn man den Preis im Hinterkopf behält und deine Angaben sollten gegenüber i9 stimmen (1 - 2 Fps) ist das schon sehr ernüchternd. Aber vielleicht sind es auch einfach nicht die richtigen x3d Spiele ;)
Ist die gleiche GPU. Hätte aber vermutet, dass ich mit einem Modernen Setup bei der gleichen Grafikkarte eher 3-5% mehr FPS habe. Ein Irrglaube. Ändern wird sich das Definitiv, wenn die neue Karte da ist.
 
kachiri schrieb:
AMD ist hier einfach weniger effizient, weil: Multichip-Design.
Wie gesagt ist es nicht, denn wenn Expo nicht laufen würde könnte der Sockel auch bei wesentlich weniger Spannung laufen und damit um einiges effizienter. Ist eher ein Problem des IMC vermute ich der sehr hohe Spannungen braucht um mit dem Ram im Expo Profil kommunizieren zu können.
kachiri schrieb:
Also 2,50 Euro im Monat. Was dann im Gaming wieder ausgeglichen wird
2,50€ im Monat sind 2,50€ das sind immer noch 30€ pro Jahr. Viele ärgern sich wenn Amazon ihre Prime Preise um 2€ im Monat anhebt, hier ist es dann aber egal? Du musst schon viel zocken um 6kW Unterschied im Monat alleine durchs zocken gegenüber Intel reinholen zu können
 
Rockbreak schrieb:
damit ist es einfach falsch dass Leute glauben Amd chips wären besonders sparsam
Und wenn es blöd läuft, kommt sowas dabei raus. Die meisten (ohne Messgerät, wie z.B. der pirat über mir) würden es nicht mal merken...

@Tim275
Nicht irgendwelchen Charts glauben, sondern selbst an der Steckdose messen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockbreak
Tim275 schrieb:
dem hohen Idle verbrauch
IMG_0020.jpeg


Buhuuu… lass Dich nich kille machen. 🙄
 
cyberpirate schrieb:
Wozu wenn man doch möglichst effizient und mit Bestleistung zocken will?
Aye. Das war auch mein Gedanke beim Kauf. Aber den Idle-Verbrauch hab ich schlicht und ergreifend gar nicht beachtet. :D
 
Tim275 schrieb:
Aber den Idle-Verbrauch hab ich schlicht und ergreifend gar nicht beachtet
Das ist nicht das Problem. Du hast 1000€ in Hardware versenkt, die man für 4K besser in eine 5090 investiert hätte. Ein 14600KF für 200€ hätte es getan.
 
  • Gefällt mir
Reaktionen: vaN
Zurück
Oben