Intel Core i5-14600KF vs. AMD Ryzen 5 7600x, welchen sollte ich nehmen?

AMD-Flo schrieb:
Schon wieder mit VSync festgenagelt auf 60 bzw. 100 FPS
Mit FPS Limit im Treiber simuliert man nun mal eine schwächere GPU.

AMD-Flo schrieb:
Ein 14600KF ist in Spielen effizienter als ein 7600X3D
Hat niemand gesagt. Nur ist den Abstand in der Praxis bei weitem geringer, als es der CB Test darstellt.
AMD-Flo schrieb:
So viel zum Thema falsche Behauptungen
Wenn wir von 28W (6000er RAM) ausgehen, ist das bei Wukong der Fall:
 

Anhänge

  • Idle.png
    Idle.png
    70 KB · Aufrufe: 37
  • Limit60FPS.jpg
    Limit60FPS.jpg
    383,1 KB · Aufrufe: 34
  • Gefällt mir
Reaktionen: PeacemakerAT
AMD-Flo schrieb:
Das sieht man daran, dass man im GPU Limit den Verbrauch der CPU durch ein PL reduzieren kann, oder dabei weniger Frames zu erhalten.
Immer noch nichts zum verlinkten Video gesagt, ich habe das Gefühl du willst dich gar nicht von Fakten überzeugen lassen. Normalerweise schätze ich deine Beiträge, aber das ist unnötig verbohrt.
 
till69 schrieb:
Mit FPS Limit im Treiber simuliert man nun mal eine schwächere GPU.
Falsch.
AMD-Flo schrieb:
Zeige mir, dass der CPU Verbrauch sinkt, wenn man ausschließlich die Auflösung erhöht, ohne etwas zu limitieren.
Und nimm bitte einen modernen Titel, der CPU Leistung fordert, z.B. MSFS, Stalker 2 oder Cyberpunk. Nichts, wo sich die CPU langweilt.
Danach habe ich gefragt, ohne irgendwelche Limits im Treiber, in der Engine oder VSync.

@PeacemakerAT
Ich behaupte, dass sie CPU nicht weiß, wie viele FPS die GPU erzeugt und rechnet dadurch mehr Frames als nötig, wenn kein Limit gesetzt wird, nichts anderes.

Raptorlake schrieb:
AMD Fans wollen nicht überzeugt werden.
Den Kommentar kannst du dir komplett sparen. Lies mal meine Beträge richtig. Ich habe auch nie behauptet, dass der 14600KF eine schlechte CPU ist. Aber die Effizienz ist sicher keine Stärke dieser CPU.
 
AMD-Flo schrieb:
Ich behaupte, dass sie CPU nicht weiß, wie viele FPS die GPU erzeugt und rechnet dadurch mehr Frames als nötig, wenn kein Limit gesetzt wird, nichts anderes.
Du wolltest Beweise und ein Beispiel, ich habe dir geliefert ein Video Beispiel an dem klar ersichtlich ist das die CPU Pwr mit steigender Auflösung absinkt. von ~110 auf 70W beim 14600K.
Dazu möchte ich jetzt aber auch eine entsprechende Antwort und nicht eine Behauptung die du nicht belegen kannst.
 
PeacemakerAT schrieb:
ein Video Beispiel an dem klar ersichtlich ist das die CPU Pwr mit steigender Auflösung absinkt. von ~110 auf 70W
Bei mangelndem Textverständnis ist ein Video vielleicht nicht das Richtige. Probieren wir es mit 2 Screenshots, in 1440p und 720p (beide gänzlich ohne Limits):
 

Anhänge

  • CP720p.jpg
    CP720p.jpg
    223,8 KB · Aufrufe: 40
  • CP1440p.jpg
    CP1440p.jpg
    508,9 KB · Aufrufe: 43
AMD-Flo schrieb:
Ich behaupte, dass sie CPU nicht weiß, wie viele FPS die GPU erzeugt und rechnet dadurch mehr Frames als nötig, wenn kein Limit gesetzt wird, nichts anderes

Dann überzeug dich vom gegenteil. starte ein spiel, welches im cpu limit mehr als 60fps zeigt z.b. 100fps. Dann geh ins gpu limit knapp unter 60fps. wenn du jetzt einen Fps limit anschaltest mit 60er limit sollte es nach deiner Logik einen grossen unterschied geben beim cpu verbrauch, die cpu ja im gpu limit nicht gebremst wird. Überraschung es gibt kaum einen unterschied zwischen gpulimit und fps limit bei gleicher fps zahl.
 
Man könnte auch einfach den gesunden Menschenverstand nutzen:
GPU Limit = CPU wartet auf GPU (warten verbraucht in der Regel weniger Strom)

Ganz einfacher Sachverhalt
 
PeacemakerAT schrieb:
Immer noch nichts zum verlinkten Video gesagt, ich habe das Gefühl du willst dich gar nicht von Fakten überzeugen lassen.
Ich hatte vorher noch keine Gelegenheit das Video anzuschauen. Der Verbrauch geht mit steigender Auflösung etwas runter, da habt ihr schon Recht. Beim meinem 5800X3D sehe ich das in der Form nicht. Damit muss ich auch @till69 Recht geben, dass der Effizienz Vergleich im CPU Limit nicht realistisch ist.
 
  • Gefällt mir
Reaktionen: PeacemakerAT
Der 5800X3D hat ein "Grundrauschen" die Last ist von Haus aus auf viel geringerem Niveau. Es ist erwartbar das es sich hier nicht im selben Maß auswirkt, sonst müsste er irgendwann Strom erzeugen :D
Ergänzung ()

Im Prinzip kann man festhalten je höher die FPS sein sollen bzw je näher die CPU am Limit agiert, desto eher macht X3D aus Verbrauchssicht Sinn. Limitiert man ohnehin auf 60FPS wird ein Intel nur unwesentlich mehr Strom ziehen, weil der Verbrauch viel besser mir der Last skaliert.
 
Zuletzt bearbeitet:
Ich habe beide und kann auch beide empfehlen. Prinzipiell ist's wurscht welchen von den beiden. Die sind alle potent. Der Intel saugt weniger Sprit im Stand und bleibt auch kühler. Auch bei surfen etc.hat der Intel die Nase vorn. AMD ist halt bisschen billiger.


Das ganze hin und her mit alter Plattform und so sollte im Real Life egal sein, da man beide CPUs locker 5 Jahre nehmen kann und danach sowieso komplett neu kaufen wird.

Edit: ich hab mich beim Intel nie ums BIOS gekümmert und kann dir auch nicht sagen welche Version ich drauf hab und trotzdem ist weder meine CPU noch meine Bude abgebrannt. Ist echt übertrieben wie es manche darstellen
 
SportMönch schrieb:
ich hab mich beim Intel nie ums BIOS gekümmert und kann dir auch nicht sagen welche Version ich drauf hab und trotzdem ist weder meine CPU noch meine Bude abgebrannt.
Kann man machen muss aber nicht und vor allem wenn die CPU dann durch ist sollte man nicht weinen.
Wenn Probleme bekannt sind und man reagiert nicht ist man selbst Schuld.
 
PeacemakerAT schrieb:
Weil bei Igor auch eine 4090 steckt und deshalb die CPU auch in höheren Auflösungen mehr belastet wird.
Schau dir doch das Video mit der 4070 an, dort ist es sehr deutlich zu sehen das selbst der 14600K in 4K plötzlich statt 100-120W (1080P) nur mehr 60-70W (4K) zieht.
Die GPU braucht nicht mehr Input also säuft die CPU weniger.

Traue keinem Video, das Du nicht selbst gefälscht hast. :D
 
Zurück
Oben