Intel Core i5-14600KF vs. AMD Ryzen 5 7600x, welchen sollte ich nehmen?

@KEV24in_Janßen Was kannst du bestätigen?
Dass die von dem Problem nicht betroffenen CPUs keine Probleme haben?
 
  • Gefällt mir
Reaktionen: Raptorlake und Sound-Fuzzy
Was @till69 meint ist das der von CB angegeben Durschnittsverbrauch mit einer RTX4090 in 720p ermittelt wurde.
In realen Stenarien wird der Verbrauch vermutlich niedriger sein weil normalerweise die GPU limitiert und die CPU damit eingebremst wird.
Passiert auch nicht so oft, aber in dem Fall muss ich Till Recht geben :daumen:
 
till69 schrieb:
Dein Diagramm ist Mumpitz, da es wenig mit der Realität zu tun hat. Keiner spielt in 720P ohne Limit (mit einer 4090). Meist limitiert schon der Monitor (140FPS).
Wahnsinn. Wie kann so wenig technisches Verstäntniss in hier auf Computerbase zu finden sein?
Logischerweise sind NUR die 720p Benchmarks bzw Benchmarks ohne GPU Limit hier sinnvoll.

Das hat mir schon seit vielen Generationen den Hintern gerettet! Beispiel: Ich gucke mir 4K Benchmarks an und sehe: Oha, Intel und AMD ist hier gleichschnell, dann ist es ja egal welchen Prozessor kaufe! Da machen dir dann die Spiele einen Strich durch die Rechnung. Nicht alles ist GPU limitiert, auch auf 4K nicht.

Eigentlich müsste man die "720p macht keinen Sinn" Leute sofort ignorieren. Denn Ahnung von der Materie ist da faktisch gesehen leider nicht vorhanden.
 
  • Gefällt mir
Reaktionen: Sound-Fuzzy
Pisaro schrieb:
Wahnsinn. Wie kann so wenig technisches Verstäntniss in hier auf Computerbase zu finden sein?
Logischerweise sind NUR die 720p Benchmarks bzw Benchmarks ohne GPU Limit hier sinnvoll.
Auch du hast nicht verstanden worauf Till raus will, es geht nicht um die Sinnhaftigkeit von 720p Benchmarks, sondern Stromverbrauch in Realszenarien.
Hier wird eine CPU in 1080p, 1440p oder höher oft seine Power nicht voll ausfahren müssen weil die GPU limitiert. Klar ist der Stromverbrauch in dem Fall auch bei Intel niedriger als bei den CB Tests in 720p.
 
Sicher, dass der CPU Verbrauch runter geht, wenn die GPU limitiert?
 
PeacemakerAT schrieb:
Auch du hast nicht verstanden worauf Till raus will, es geht nicht um die Sinnhaftigkeit von 720p Benchmarks, sondern Stromverbrauch in Realszenarien.
Geht es ihm wirklich um den Stromverbrauch habe ich das wirklich verpennt. Dafür gibt es dann natürlich auch eine Entschuldigung :)
Ergänzung ()

AMD-Flo schrieb:
dass der CPU Verbrauch runter geht, wenn die GPU limitiert?
Klar, da die CPU dann ja oft weniger arbeiten muss.
 
  • Gefällt mir
Reaktionen: Raptorlake
Pisaro schrieb:
Dafür gibt es dann natürlich auch eine Entschuldigung
:schluck:
AMD-Flo schrieb:
dass der CPU Verbrauch runter geht, wenn die GPU limitiert?
Und bei Intel deutlich mehr als bei den X3D.
Hier der Unterschied zwischen 30W und 50W. Weiter nach oben raus steigen die FPS kaum noch:
 

Anhänge

  • 30W.jpg
    30W.jpg
    333,3 KB · Aufrufe: 10
  • 50W.jpg
    50W.jpg
    338,8 KB · Aufrufe: 10
  • Gefällt mir
Reaktionen: Pisaro
Pisaro schrieb:
Klar, da die CPU dann ja oft weniger arbeiten muss.
Bist du dir sicher? Die CPU weiß doch vorher gar nicht, viele Frames die GPU daraus macht.

@till69
Ich meine ohne die CPU zu limitieren.
 
Raptorlake schrieb:
Es bleibt dabei, dass im GPU limit weniger CPU Verbrauch da ist.
Bitte belegen. Ohne FPS und Powerlimit.

Der 7600X3D zieht in Spielen durchschnittlich 62W und liefert dabei mehr Frames als es der 14600K überhaupt kann.
 
  • Gefällt mir
Reaktionen: Sound-Fuzzy und Verak Drezzt

Anhänge

  • Limit141FPS.jpg
    Limit141FPS.jpg
    382 KB · Aufrufe: 18
  • Limit97FPS.jpg
    Limit97FPS.jpg
    379,2 KB · Aufrufe: 16
  • Limit60FPS.jpg
    Limit60FPS.jpg
    383,1 KB · Aufrufe: 19
  • Gefällt mir
Reaktionen: Pisaro
AMD-Flo schrieb:
Die CPU weiß doch vorher gar nicht, viele Frames die GPU daraus macht.
Ist doch nur logisch. Gut, natürlich vorausgesetzt die FPS sind im GPU Limit niedriger als ohne GPU Limit.

Beispiel: Prozessor X verbraucht in Kombination mit GPU Y 100 Watt bei 150 FPS, kein GPU Limit. Limitiert die GPU bei 90 FPS, "rendert" der Prozessor dann auch nur 90 FPS und verbraucht so weniger Strom.
Ergänzung ()

AMD-Flo schrieb:
Der 7600X3D zieht in Spielen durchschnittlich 62W und liefert dabei mehr Frames als es der 14600K überhaupt kann.
Ich denke mal @till69 geht es darum aufzuzeigen das der Intel Prozessor prozentual weniger Strom im GPU Limit verbraucht als unter Volllast.

Kann natürlich auch sein (sieht wohl so aus bei till´s Bildern) das der Intel Prozessor zwar im Durchschnitt mehr Strom als der AMD zieht, allerdings bei einer bestimmten FPS Zahl sogar weniger. So deute ich das jetzt einfach mal.

Ich kann aber auch falsch liegen, bin schon viel zu lange wach :)


Jetzt mal allgemein: Ob CPU oder GPU: Beides verbraucht in einem FPS Limit weniger Strom. Ob das FPS Limit jetzt durch einen Software-Limiter oder durch das Limit einer der beiden Hardwareteile kommt ist dabei ja dann egal.
 
Zuletzt bearbeitet:
till69 schrieb:
Bei 60FPS unterhalb des Idle Verbrauchs der X3D:
Das ist eine komplett falsche Behauptung. Der 7600X3D braucht im Idle 18,2W:
https://www.computerbase.de/artikel...#abschnitt_leistungsaufnahme_und_temperaturen

Der durchschnittliche Spieleverbrauch wurde hier mit 53,4W gemessen und dabei liefert er mehr Frames als jede Raptor Lake CPU.

Ein 14600KF auf 53,4W limitiert ist da weit von entfernt. Niemand betreibt seinen 14600KF mit so einem niedrigen Powerlimit. Damit wäre er deutlich entfernt von 7600X3D. Den 14600KF in Spielen effizienter hinzustellen, als den 7600X3D ist echt lächerlich.

Pisaro schrieb:
Beispiel: Prozessor X verbraucht in Kombination mit GPU Y 100 Watt bei 150 FPS, kein GPU Limit. Limitiert die GPU bei 90 FPS, "rendert" der Prozessor dann auch nur 90 FPS und verbraucht so weniger Strom.
Habe ich verstanden, glaube ich aber nicht. Die CPU hat die Arbeit schon gemacht, bevor die GPU anfängt. Anderes bitte belegen. Ein FPS oder Power Limit zählt nicht.

KEV24in_Janßen schrieb:
Ja
Mein 14700K fehlerfrei (BIOS Akutell)
Das ist aber nicht das, was @Whitehorse1979 geschrieben hat. Er hat über einen komplett anderen Chip geschrieben.

Bisher weiß auch niemand, ob der Fix tatsächlich das Problem löst, aber ich gehe davon aus.
 
  • Gefällt mir
Reaktionen: Sound-Fuzzy
AMD-Flo schrieb:
Ein FPS oder Power Limit zählt nicht
Was zählt denn? Vsync on?

AMD-Flo schrieb:
Habe ich verstanden
Nein, hast Du nicht

AMD-Flo schrieb:
Das ist eine komplett falsche Behauptung. Der 7600X3D braucht im Idle 18,2W
Du weißt aber schon, dass (je nach Board) ca. 10-12W dazukommen wenn RAM über 5200 genutzt wird? 6000er ist wohl die Standard Empfehlung im Forum.

29W bei HWLUXX und hier sind es 28W (beim 7800X3D):
 

Anhänge

  • Idle.png
    Idle.png
    70 KB · Aufrufe: 7
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
till69 schrieb:
Du weißt aber schon, dass (je nach Board) ca. 10-12W dazukommen wenn RAM über 5200 genutzt wird? 6000er ist wohl die Standard Empfehlung im Forum.

Und unter anderem damit zeigst Du, dass Du die AMD-Architektur einfach nicht verstanden hast!
X3D-CPU´s ist der Speichertakt ziemlich egal, da kannst Du auch 4800er-Speicher nehmen (mit möglichst niedriger CL), weil der 3D-Cache den Takt des Speichers so gut wie irrelevant macht! Die Unterschiede zwischen simplem 4800er und teurem 6000+-Speicher sind erheblich geringer als bei Intel-CPU´s!
P.S.: Wieder ein Punkt für das PL-Verhältnis von AMD... ;)
Ergänzung ()

AMD-Flo schrieb:
Das ist eine komplett falsche Behauptung. Der 7600X3D braucht im Idle 18,2W:
https://www.computerbase.de/artikel...#abschnitt_leistungsaufnahme_und_temperaturen

Der durchschnittliche Spieleverbrauch wurde hier mit 53,4W gemessen und dabei liefert er mehr Frames als jede Raptor Lake CPU.

Ein 14600KF auf 53,4W limitiert ist da weit von entfernt. Niemand betreibt seinen 14600KF mit so einem niedrigen Powerlimit. Damit wäre er deutlich entfernt von 7600X3D. Den 14600KF in Spielen effizienter hinzustellen, als den 7600X3D ist echt lächerlich.
sign!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KEV24in_Janßen
Sound-Fuzzy schrieb:
Du auch 4800er-Speicher nehmen (mit möglichst niedriger CL), weil der 3D-Cache den Takt des Speichers so gut wie irrelevant macht!
Falsch der Einfluss ist da, nur nicht so ausgeprägte als bei ohne Cache.
 
Zurück
Oben