Intel Core i5-14600KF vs. AMD Ryzen 5 7600x, welchen sollte ich nehmen?

Sound-Fuzzy schrieb:
Und unter anderem damit zeigst Du, dass Du die AMD-Architektur einfach nicht verstanden hast!
Jaja, deswegen wird ja ausschließlich 6000er empfohlen in allen Beratungen und auch im Idealen Gaming-PC.
Die haben das dann alle wohl nicht verstanden.
Ein Glück, dass Du schlauer bist. Reicht zwar nicht fürs PL setzen, aber das liegt ja am UEFI :mussweg:

Sound-Fuzzy schrieb:
denkst Du wirklich ich wäre so blöd?
War das eine rhetorische Frage oder willst Du eine Antwort darauf?
 
till69 schrieb:
Was zählt denn? Vsync
Vielleicht hast du es noch nicht mitbekommen, aber heutzutage spielt man mit variabler Synchronisation, das funktioniert bei den meisten Monitoren im Bereich von 48 bis 144 Hz. Wenn die GPU also beispielsweise im Schnitt 100 FPS schafft, möchte man das in der Regel auch nutzen.

till69 schrieb:
Nein, hast Du nicht
Dann erkläre mir doch bitte mal, woher die CPU vorher wissen soll, wie viele Frames die GPU aus den gelieferten Daten der CPU macht. Zeige mir, dass der CPU Verbrauch sinkt, wenn man ausschließlich die Auflösung erhöht, ohne etwas zu limitieren.
Und nimm bitte einen modernen Titel, der CPU Leistung fordert, z.B. MSFS, Stalker 2 oder Cyberpunk. Nichts, wo sich die CPU langweilt.

till69 schrieb:
Das interessiert keinen der hauptsächlich spielt und alle anderen können den Speichertakt runtersetzen, das ist genauso viel Aufwand wie das anpassen der PLs.
CB hat die Test mit DDR5-5200 CL30 durchgeführt und da ist der X3D schneller als der 14600KF bei halben Verbrauch. Da gilt auch bei 10-12W mehr.

Und selbst im Idle, sind 10-12W kein Riesenproblem, wenn die Kiste nicht 24/7 läuft.
Wenn man mit dem 14600KF 2 Stunden gespielt hat, muss den Rechner den restlichen Tag im Idle laufen lassen, um auf den gleichen Verbrauch wie beim X3D zu kommen.

Der Verbrauch des Speichercontrollers ist die einzige Schwäche des X3D, einfach lächerlich einen 14600KF in der Effizienz in Spielen besser hinzustellen. Und wenn man die Performance des 14600KF nicht braucht, dann braucht man ihn auch nicht kaufen.
 
AMD-Flo schrieb:
Habe ich verstanden, glaube ich aber nicht. Die CPU hat die Arbeit schon gemacht, bevor die GPU anfängt. Anderes bitte belegen. Ein FPS oder Power Limit zählt nicht.
Ernsthaft?

Tut mir leid, aber wenn man nach deiner Logik geht müsste jede Grafikkarte immer maximalen Verbrauch haben wenn man im CPU Limit bei relativ niedrigen FPS liegt.

Nichts anderes ist das ja beim Prozessor. Beispiel Ark Survival Evolved: bei 99% GPU Last liege ich etwa bei 340 Watt, 100 FPS.
Stehe ich in meiner riesigen Zuchtbase mit 42 FPS und irgendwas um 40% GPU Last sieht meine RTX 4090 keine 250 Watt mehr.

Das ist einfach nur Logik, nichts anderes.

Keine Ahnung genau was die andern gemeint haben, ich rede klar von einem FPS oder Hardwarelimit, wobei beides auf das selbe hinausläuft, denn: Ein Limit liegt IMMER an.

Glaubst du das immer noch nicht wäre es in etwa so als ob du ein Beweis dafür bräuchtest das 5 + 5 = 10 ist :p
 
Zuletzt bearbeitet:
sollte ansich klar sein, das aufgrund des GPU Limits, die FPS entsprechend in den Keller gehen, man dann auch niedrigeren Verbrauch bei der CPU hat, aber das liegt net wirklich im Gewicht, wenn ein 7800X3D oder 9800X3D bei 60W rum dümpeln und ein Intel Raptor-Lake dann irgendwo 30W und mehr bei selbigen Settings verbraucht

oder wie an @Pisaro Beispiel ins CPU Limit rennt, weil die CPU net mehr hergibt auf 2-4 Kernen Auslastung, trotz alledem ist ne alte Raptor-Lake Plattform keine Empfehlung mehr wert, selbst wenn man diesen auf 90W TDP beschränkt
Ergänzung ()

Verak Drezzt schrieb:
wenn ein 7800X3D oder 9800X3D bei 60W rum dümpeln und ein Intel Raptor-Lake dann irgendwo 30W und mehr bei selbigen Settings verbraucht
hier hatte ich gar net mal so unrecht, wenn man sich die WQHD Ergebnisse anschaut und auch wie der Verbrauch der CPU sinkt, je höher man mit der Auflösung geht, aber wirklich viel kommt da zumindest bei den X3D's net rum, weil diese halt schon sehr effizient sind: https://www.igorslab.de/amd-ryzen-7...ertaktet-untervoltet-und-fuer-gut-befunden/8/
Ergänzung ()

denn natürlich verbraucht ne CPU weniger Strom wenn sie 60 statt 120FPS berechnen muss, egal ob durch ein GPU Limit oder durch Beschränkung der FPS im Treiber oder im Spiel
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
Pisaro schrieb:
Ja ernsthaft. Die CPU berechnet beispielsweise 80 FPS und liefert die Daten zur GPU. Wenn die GPU z.B. 100 FPS schaffen würde, gibt sie trotzdem nur die berechneten 80 FPS der CPU aus und braucht deshalb entsprechend weniger Leistung. Das ganze nennt sich CPU Limit.
Schafft die GPU jedoch nur 60 FPS, wird sie zu ca 100% ausgelastet und begrenzt auf 60 FPS, dann ist man im GPU Limit.
Zu diesem Zeitpunkt ist die Berechnung in der CPU, aber längst abgeschlossen, die CPU wartet nicht, bis die GPU fertig ist und berechnet erst dann das nächste Bild.

Pisaro schrieb:
Tut mir leid, aber wenn man nach deiner Logik geht müsste jede Grafikkarte immer maximalen Verbrauch haben wenn man im CPU Limit bei relativ niedrigen FPS liegt.
Das habe ich nie geschrieben, du kannst es nicht einfach umdrehen. Natürlich sinkt der GPU Verbrauch, wenn die CPU der GPU nicht genügend Frames liefert. Die CPU wird aber nicht durch die GPU gebremst. Die CPU liefert Daten an die GPU, nicht umgekehrt.

Nach deiner Logik müsste man die CPU künstlich bremsen, wenn die GPU zu langsam ist. Vielleicht einfach nochmal darüber nachdenken und darüber informieren, wie es technisch umgesetzt wird.
 
AMD-Flo schrieb:
Nach deiner Logik müsste man die CPU künstlich bremsen, wenn die GPU zu langsam ist. Vielleicht einfach nochmal darüber nachdenken und darüber informieren, wie es technisch umgesetzt wird.
Danke, kann ich so nur zurück geben.

Naja zum Glück wurde das von anderen Usern mittlerweile schon belegt.
Was denkst du warum eine CPU nicht immer "ihre" maximale Watt zieht? Eben weil er Verbrauch stark schwankt. Bedingt durch ein FPS Limit, GPU Limit, Spiele Engine etc.
 
Pisaro schrieb:
Naja zum Glück wurde das von anderen Usern mittlerweile schon belegt.
Wurde es nicht.

Pisaro schrieb:
Was denkst du warum eine CPU nicht immer "ihre" maximale Watt zieht?
Das denke ich nicht und habe ich auch nie geschrieben. Der CPU Verbrauch ergibt sich durch die Auslastung der Engine, unabhängig von einem GPU Limit.

Schade, dass du nicht versuchst unbefangen zu verstehen, was ich schreibe und wie es tatsächlich funktioniert.

AMD-Flo schrieb:
Zeige mir, dass der CPU Verbrauch sinkt, wenn man ausschließlich die Auflösung erhöht, ohne etwas zu limitieren.
Und nimm bitte einen modernen Titel, der CPU Leistung fordert, z.B. MSFS, Stalker 2 oder Cyberpunk. Nichts, wo sich die CPU langweilt.
Warum probierst du es nicht aus und zeigst mir den Gegenbeweis?
 
@AMD-Flo wieso beweist du es nicht?
Hab dir mal ein Vid von Testing Games rausgesucht, beim ersten Beispiel CP2077 sieht man sehr deutlich das die CPU Pwr immer weniger wird, je höher die Auflösung geschraubt wird.
Eine CPU liefert nur die Daten welche von der GPU angefordert werden und nicht endlos, das wäre ja Verschwendung hoch 3.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
AMD-Flo schrieb:
einfach lächerlich einen 14600KF in der Effizienz in Spielen besser hinzustellen.
Du missverstehst die Absicht, es geht nicht darum den 14600K besser als den X3D darzustellen, aber der reale Unterschied (vor allem in hohen Auflösungen) ist halt nicht so hoch wie bei einem CPU Benchmark in 720p.
Weiters sind CPU Benchmarks gezielt mit sehr CPU hungrigen Spielen durchgeführt um die Unterschiede besser rauszuarbeiten. Im Mittel ist der CPU Verbrauch dann auch geringer weil die GPU viel öfter limitiert.
 
PeacemakerAT schrieb:
aber der reale Unterschied (vor allem in hohen Auflösungen) ist halt nicht so hoch wie bei einem CPU Benchmark in 720p.

Mit den Auflösungen kommt es ganz auf das spiel und den preset einstellungen an 😅😉. Nicht das dass hier noch jemand falsch versteht.
 
Klar das Verhalten ist je Spiel, Auflösung, Settings komplett unterschiedlich. In Anno wird die CPU immer zu ackern haben wenn die Stadt groß genug ist.
 
Schaut euch mal die Messwerte vom Igor an, der 14600K verbraucht in CP2077 bei der 4fachen Auflösung 133 statt 140W.
Die CPU berechnet nicht weniger Frames, nur weil die GPU limitiert.

PeacemakerAT schrieb:
Eine CPU liefert nur die Daten welche von der GPU angefordert werden und nicht endlos, das wäre ja Verschwendung hoch 3.
Das stimmt nicht nicht und es ist auch Verschwendung hoch 3. Das sieht man daran, dass man im GPU Limit den Verbrauch der CPU durch ein PL reduzieren kann, oder dabei weniger Frames zu erhalten.
 
  • Gefällt mir
Reaktionen: Sound-Fuzzy
Weil bei Igor auch eine 4090 steckt und deshalb die CPU auch in höheren Auflösungen mehr belastet wird.
Schau dir doch das Video mit der 4070 an, dort ist es sehr deutlich zu sehen das selbst der 14600K in 4K plötzlich statt 100-120W (1080P) nur mehr 60-70W (4K) zieht.
Die GPU braucht nicht mehr Input also säuft die CPU weniger.
 
[
AMD-Flo schrieb:
Schaut euch mal die Messwerte vom Igor an, der 14600K verbraucht in CP2077 bei der 4fachen Auflösung 133 statt 140W.
Die CPU berechnet nicht weniger Frames, nur weil die GPU limitiert.
ich bin mir fast sicher das die rtx4090 GPU nicht wirklich limitiert in Wqhd+ultra einstellung. Da fehlt ja noch zusätzlich jegliches RT.
 
AMD-Flo schrieb:
einfach lächerlich einen 14600KF in der Effizienz in Spielen besser hinzustellen
Da Dir offenbar neben Textverständnis auch das technische Verständnis fehlt, ist weitere Diskussion sinnlos.
AMD-Flo schrieb:
Und selbst im Idle, sind 10-12W kein Riesenproblem
Du bist lustig, erst kommst Du mit "falsche Behauptung", dann zeigt man Dir, dass es stimmt, und Du kommst mit Geblubber und schönreden der einfachen Tatsache.

AMD-Flo schrieb:
Und nimm bitte einen modernen Titel, der CPU Leistung fordert, z.B. Cyberpunk
Bitte schön, 100FPS und 60FPS:
 

Anhänge

  • CP100FPS.jpg
    CP100FPS.jpg
    364,6 KB · Aufrufe: 11
  • CP60FPS.jpg
    CP60FPS.jpg
    357,5 KB · Aufrufe: 11
till69 schrieb:
Bitte schön, 100FPS und 60FPS:
Schon wieder mit VSync festgenagelt auf 60 bzw. 100 FPS.
Ich gebe dir einfach Recht. Ein 14600KF ist in Spielen effizienter als ein 7600X3D. Das zeigen ja auch sämtliche Testberichte.

till69 schrieb:
Bei 60FPS unterhalb des Idle Verbrauchs der X3D:
So viel zum Thema falsche Behauptungen.
 
Zurück
Oben