Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

[wege]mini schrieb:
Das ist die einzige Aussage, die Sinn in deinen Aussagen für mich ergibt.

Ich habe immer das FPS Limit auf 60 FPS eingestellt. Beim Fernsehen oder im Kino, welches mit 30 FPS kommt, ruckelt doch auch nichts.

Keine meiner Aussagen war sarkastisch gemeint und solltest du ein Adlerauge sein, genieße die Zeit, in der du es kannst.

mfg
Dass man bei 30-60 fps nicht die allerstärkste CPU braucht ist jetzt kein großes Geheimnis. Sehr viele spielen am PC aber mit mehr fps.
Aber von 60 auf 30 fps merkt jeder den ich kenne.
Aber beenden wir das an der Stelle lieber.
 
  • Gefällt mir
Reaktionen: [wege]mini
crazyppl schrieb:
Das ist schon ein krasses stück das man unrealistische szenarien testet sichtwort 720p mit 4090... lmao?

man muss sowas testen damit man überhaupt einen unterschied sieht?

und in 1440p und 4K merkt man das nen halbwegs aktueller 6Core sogar reicht?

ist das eigentlich gezielt?
Verstehen und dann vielleicht meckern.

 
crazyppl schrieb:
Das ist schon ein krasses stück das man unrealistische szenarien testet sichtwort 720p mit 4090... lmao?

man muss sowas testen damit man überhaupt einen unterschied sieht?

und in 1440p und 4K merkt man das nen halbwegs aktueller 6Core sogar reicht?

ist das eigentlich gezielt?

was mir noch auffällt computerbase ist stark gewachsen aber das team oder die tests werden dem nicht gerecht zu klein, zu nicht aktuell usw.

auf den aufstieh folgt der abstieg.

ich lese diesen scheiss hier nicht mehr. (bitte konto löschen ich scheiss auf das hier)
Und für diesen Kommentar extra angemeldet? 😅 Toll. Keks 🍪?
 
Robman86 schrieb:
Aber von 60 auf 30 fps merkt jeder den ich kenne.

Nur wenn man am Limit ist.

Dann kommen bei 30 FPS als Durchschnitt auch gerne mal 100ms gar keine Frames. Und 10 FPS sind dann schon echt wenig. Selbst die alten Filme hatten immerhin 15 FPS.

Wenn man immer 90 FPS in der Hinterhand hat, ist das weniger tragisch.

Aber du hast damit Recht, dass es sich lohnt, dieses Gespräch hier zu beenden. Jünger und Gläubige zu überzeugen ist schwer und echt nicht mein Ding.

mfg

p.s.

Kleiner Exkurs. Bei 30 FPS kommen pro 100ms 3 Bilder. Wer beim Sport z.B. unter 100ms Reaktionszeit hat, wird wegen Frühstart bestraft, weil das Gehirn nicht so schnell arbeitet.

Wenn aber 100ms kein Bild kommt, dann ruckelt es für jeden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85
Ich sehe das wie manch andere hier auch, das wenigstens ein CPU Test dabei ist, wo man im GPU Limit hängt. Das CPU´s in 720 p getestet werden ist Pflicht, denn nur dieser Test sagt mir wie schnell welche CPU ist. Nur zeigt mir dieser Test eben nicht, wie die Effizienz im GPU Limit ist. Igor zeigt ja recht deutlich, das der 13900k 20-30 Watt dort mehr verbraucht und sind wir doch mal ehrlich, darauf is geschissen. Das würde auch viele Diskussionen hier ersparen, denn das Strom Argument wäre damit hinfällig. Genau so, wie das Hitzkopf Argument. Die AMD CPU`S sind zwar Sparsamer aber nicht Kühler. Ja ich weiß das liegt an der Architektur, das ist auch OK, nur muss man dann selbst Hand anlegen, das der CPU Kühler nicht ständig auf Volllast fährt, nur weil die CPU meldet, hier ich bin 90 Grad warm, kühl mich mal runter. Das Problem hat man mit den Intel Prozessoren nämlich nicht (bezogen auf reines Gameplay).
Das ist aber nur meine Meinung und ich würde mich freuen, wenn Computerbase so etwas in Zukunft mit einbinden könnte.
 
  • Gefällt mir
Reaktionen: RogueSix
Wenn ich versuche den Artikel zu lesen crasht mein browser jedes mal (opera GX).
Alle anderen Artikel funktionieren und andere browser auch. Noch jemand das selbe Problem?
 
Die Frage ist was einem diese theoretische Betrachtung der CPU Leistung bringt... man will ja den Unterschied im Alltag wissen. Und selbst rückblickend betrachtet, 2, 3, 4 Generationen, wäre zu prüfen ob sich der ursprünglich in 720p gezeigte Leistungsunterschied in späteren Benchmarks irgendwo niederschläg
 
H6-Mobs schrieb:
Igor zeigt ja recht deutlich, das der 13900k 20-30 Watt dort mehr verbraucht und sind wir doch mal ehrlich, darauf is geschissen.
Und diesem Mehrverbrauch bitte den Minderverbrauch bei Idle/Surfen/YT gegenrechnen. Kommt am Ende vom Jahr dann fast aufs gleiche raus.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Das meine ich ja damit. Über 20-30 Watt mehr oder weniger, das interessiert doch niemanden. Ob jetzt im IDLE oder beim Zocken. Nur viele User denken anscheinend, das die Intel Prozessoren Schluckspechte beim Zocken sind und das sind sie wahrlich nicht. Daher bin ich ja dafür, einen Test im GPU Limit zu machen, denn der würde das nämlich ganz klar zeigen.
 
ThirdLife schrieb:
Da warte ich lieber noch nen Monat und kaufe (evtl.) sobald der Preis sich eingependelt hat und die ersten Gierigen versorgt sind.
Exakt.

Ich finde es zwar vollkommen ok, wenn man aus Freude am Basteln - oder einfach nur, um sich etwas zu gönnen - gleich zuschlägt.

Ich allerdings warte bei "teurerer" Hardware seit eh und je immer mindestens einige Wochen nach der initialen Einführung, bis ich einen konkreten Kauf ins Auge fasse. Das rührt primär aus der Motivation, die "Kinderkrankheiten" auszusitzen.

Wenn die Preise in der Zeit dann auch (etwas) fallen, nehme ich das gerne mit. Bei Grafikkarten hatte ich mit diesem Ansatz in den vergangenen Jahren allerdings keinen Erfolg. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
crazyppl schrieb:
Die Frage ist was einem diese theoretische Betrachtung der CPU Leistung bringt... man will ja den Unterschied im Alltag wissen. Und selbst rückblickend betrachtet, 2, 3, 4 Generationen, wäre zu prüfen ob sich der ursprünglich in 720p gezeigte Leistungsunterschied in späteren Benchmarks irgendwo niederschläg
Am Ende des Tages ist es ein Wettkampf zwischen dem Intel-und AMD-Lager. Wer hat die schnellste CPU.

Ich kenne niemanden aus meinem Umfeld, der sich alle 1-2 Jahre eine neue CPU kauft, weil diese bei den "komischen" (ich bin kein Gamer ;) ) Test paar Frames mehr schafft.
 
g0nz schrieb:
Warum gibt es hier so viele Kommentare?

Der Test ist doch eindeutig, 70 Watt CPU besiegt 150watt Monster.
Danke AMD.
So einfach ist das eben nicht, beide sind gut.
I9 13900k(s)
Pro:
Günstiger, günstigere Mainboards, erheblich bessere multi core Leistung, etwas bessere Single core Leistung.
Con:
Hoher Verbrauch

R9 7950x3d
Pro:
Niedriger Verbrauch
Con:
Umstände beim Einrichten, Preis, multi core Leistung.

Gaming sind beide fast gleich auf und in 1440p und 2160p gibt es keinen FPS Unterschied zwischen dem i9, den r9 3D und dem r9 ohne 3d.
So einfach zu sagen ist es also nicht, von daher die Diskussionen hier.
Die wollmilchsau gibt es eben nicht, alles außer der Verbrauch spricht für Intel, der Verbrauch eben zu amd.
 
  • Gefällt mir
Reaktionen: Klever und H6-Mobs
ComputerJunge schrieb:
Wenn die Preise in der Zeit dann auch (etwas) fallen, nehme ich das gerne mit. Bei Grafikkarten hatte ich mit diesem Ansatz in den vergangenen Jahren allerdings keinen Erfolg. :D
Da fand ich die Not auch größer, gerade mit der 4090 die ja ordentlich Performance gebracht hat. Da schlägt man gerne und schneller zu. Von meiner 3080 Ti kommend waren das halt locker 80%+ an Leistung.

Der X3D wären halt 0-30%...da ist deutlich weniger "mussichhaben"-Faktor dabei. Ist halt eher so "wenn der Preis passt nehm ichs mit". :D
 
  • Gefällt mir
Reaktionen: ComputerJunge
[wege]mini schrieb:
Beim Fernsehen oder im Kino, welches mit 30 FPS kommt, ruckelt doch auch nichts.
Kannst du nicht vergleichen mit Games.
U.a. weil beim Film, Kino wird die Framerate bereits beim Rendern festgelegt,
bei Games werden die Bilder stehts neu berechnet.
Die Framerate schwankt ständig bei Games, es gibt keinen konstanten Wert.
Im Netz gibt es aber reichlich informationen dazu - "FPS Movie vs Games"
und warum man es als ruckeln empfindet bzw sieht.
 
  • Gefällt mir
Reaktionen: trb85
Nickel schrieb:
Die Framerate schwankt ständig bei Games, es gibt keinen konstanten Wert.

Daher stellt man den Wert selber ein, der unter dem Maximum liegt.

Früher wurden in Kinos alle 24 Bilder Werbungen eingeblendet und niemand hat es wahrgenommen. :evillol:

Trotzdem haben sich alle gewundert, warum sie plötzlich Bock auf Cola hatten. :heilig:

mfg

https://de.wikipedia.org/wiki/Iss-Popcorn-trink-Cola-Studie#:~:text=Analog projizierte Kinofilme bestehen in,als 1/24 Sekunde sein.

Ein auf diese Weise eingeblendetes Einzelbild ist jedoch für das menschliche Auge nicht unbedingt unsichtbar, sondern kann unter Umständen auch mit Einzelheiten bewusst wahrgenommen werden. Um kürzere Darbietungszeiten zu erreichen und es damit wahrscheinlicher zu machen, dass die Botschaften von manchen Kinobesuchern unterschwellig wahrgenommen werden, müsste daher zusätzlich zum Filmprojektor ein Tachistoskop eingesetzt werden.
 
  • Gefällt mir
Reaktionen: trb85
[wege]mini schrieb:
Nur wenn man am Limit ist.

Dann kommen bei 30 FPS als Durchschnitt auch gerne mal 100ms gar keine Frames. Und 10 FPS sind dann schon echt wenig. Selbst die alten Filme hatten immerhin 15 FPS.

Wenn man immer 90 FPS in der Hinterhand hat, ist das weniger tragisch.

Aber du hast damit Recht, dass es sich lohnt, dieses Gespräch hier zu beenden. Jünger und Gläubige zu überzeugen ist schwer und echt nicht mein Ding.

mfg

p.s.

Kleiner Exkurs. Bei 30 FPS kommen pro 100ms 3 Bilder. Wer beim Sport z.B. unter 100ms Reaktionszeit hat, wird wegen Frühstart bestraft, weil das Gehirn nicht so schnell arbeitet.

Wenn aber 100ms kein Bild kommt, dann ruckelt es für jeden.
Komisch das man selbst von 240 auf 360 hz noch nen unterschied merkt. 😂 Das Bild wird einfach deutlich klarer in der Bewegung. Reaktion und input lag / gefühl sind außerdem auch 2 Dinge die man nicht einfach so vergleichen kann.
 
  • Gefällt mir
Reaktionen: trb85
Zurück
Oben