Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Salamimander schrieb:
Ich würde wetten, dass deine Firma weder ISO27001 noch IT-Grundschutz Zertifiziert ist.. (Und auch sonst wird es um die Sicherheit eher mau bestellt sein, wenn das alles erlaubt ist)
Was hat das eine mit dem anderen zu tun? Als jemand, der u.a. ein RZ-Audit mitgemacht, kürzlich mit dem NdB-VN (kann Dir sogar die BSI Nummer nennen: BSI-IGZ-0518-2022) zu tun hatte und zertifizierte Alarmsysteme in Behörden eingeführt hat, muss ich schmunzeln. ;)

(P.S.: Die Sorgfaltspflicht gilt - davon abgesehen - immer)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
kaka11 schrieb:
Top CPU von AMD, keine Frage.
Aber 720p bei einer RTX 4090 macht doch in der Praxis keinen Sinn. Wieviel % Mehrleistung gibt es bei UHD und wieviel bei einer etwas langsameren GPU wie z.B. der RTX 4080?
Gibt keine Mehrleistung bei mehr Auflösung. Die CPU rennt auf 100% ihrer möglichen Leistung im 720p bench, damit man die Leistung der CPU Werten kann, nicht der GPU.

Im CPU Test darf die GPU nicht am Limit laufen, was bei 4k der Fall sein wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Onkel Föhn schrieb:
Das sieht manch anderer allerdings völlig anders ... ;)

MfG Föhn.

Völliger Realitätsverlust :D Das klappt schon kaum in 4K in neuesten Spielen auf der 4090. Und dann mit 4 facher Pixelmenge. Ja ne, ist klar.
 
  • Gefällt mir
Reaktionen: daknoll und Onkel Föhn
Draco Nobilis schrieb:
Bei Hardware unboxed ist in Factorio ein 7950X3D bsp 73% schneller als die non-X Variante.
Und ich behaupte mal frech das die Entwickler mit zu den besten in Sachen Optimierung gehören.
Das sollten sich viel mehr Entwickler zu Herzen nehmen. Gerade bei Aufbau/Strategie/Sim/Fabrik Spielen wo hunderte Prozesse dauerhaft laufen.

Kann doch nicht so schwer sein, auf ein paar mehr Kerne zu optimieren, wenn man schon so ein komplexes Spiel macht.
 
Tilman24 schrieb:
Kann doch nicht so schwer sein, auf ein paar mehr Kerne zu optimieren, wenn man schon so ein komplexes Spiel macht.
Ist komplexer als viele glauben. Nicht alles läßt sich sinnvoll aufteilen. Hinzu kommt, daß Multithreading einen Koordinationsthread braucht (die Teilergebnisse müssen zusammengeführt werden), der irgendwann limitiert. Gleichzeitig wächst der Verwaltungsaufwand, das läßt sich nicht endlos skalieren.
 
  • Gefällt mir
Reaktionen: yummycandy, Col.Maybourne und JackTheRippchen
H6-Mobs schrieb:
Das ist quatsch. 20 -30 W mehr sind geschenkt.
Das stimmt vll für den 13600k und 13700k, der 13900K ist da schon noch weiter drüber über den AMDs beim Gaming.
Und du sagst, 20/30W sind geschenkt, schön. Aber viele die AMD hier kritisieren, weil AMD im IDLE 20W schlechter ist als Intel, für die ist es scheinbar kriegsentscheidend und fachen hier verbitterte Krabenkämpfe an.

Also, sind 20W nun geschenkt oder ist es das Totschlag Argument, dass der 7950X3D "schlecht" ist?
 
  • Gefällt mir
Reaktionen: McTheRipper, Horst_Koehler, eXe777 und 3 andere
Tilman24 schrieb:
Das sollten sich viel mehr Entwickler zu Herzen nehmen. Gerade bei Aufbau/Strategie/Sim/Fabrik Spielen wo hunderte Prozesse dauerhaft laufen.

Kann doch nicht so schwer sein, auf ein paar mehr Kerne zu optimieren, wenn man schon so ein komplexes Spiel macht.
Multithreading programmieren ist nicht in jedem Fall wirklich einfach, da gilt es viel zu beachten. Und der Vorteil muss dann auch den Overhead ausgleichen, der durch die Threadverwaltung erzeugt wird.
Grundsätzlich wäre es aber wünschenswert, wenn möglichst viele Kerne genutzt werden würden.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Es sollte wirklich vor jedem CPU-/RAM-Test ein Standardabsatz zu den Gründen der niedrigen Auflösung eingefügt werden. Damit sich nicht etliche Kommentare über die vermeintliche Praxisferne auslassen. 🙄

Edit: Erklärung findet sich mitten im Text. Aber die liest vermutlich niemand. 😄
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Rockstar85
danyundsahne schrieb:
Also, sind 20W nun geschenkt oder ist es das Totschlag Argument, dass der 7950X3D "schlecht" ist?
Weder noch. Es ist einfach (wie schon 100x gesasgt jetzt) ein negativer Aspekt. Nicht mehr und nicht weniger. Nicht kriegsentscheidend aber auch nicht völlig zu vernachlässigen.
 
  • Gefällt mir
Reaktionen: Col.Maybourne, Onkel Föhn und danyundsahne
Kai85 schrieb:
Es sollte wirklich vor jedem CPU-/RAM-Test ein Standardabsatz zu den Gründen der niedrigen Auflösung eingefügt werden.
Im die Überschrift am besten..mancher liest ja nicht mal den ganzen Test. Mich wundert aber halt auch nichts mehr
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Kai85
t3chn0 schrieb:
Aber Vorsicht, dass sind andere als ich gezeigt habe. Deine hier haben 25 WMK, während meine 35 WMK besitzen. Wie groß der Unterschied in der Praxis ist, vermag ich nicht zu sagen.
Selbst wenn die Angaben der Hersteller stimmen sollten müsste speziell bei solchen Pads die Dicke mit angegeben werden. Denn sollte als Beispiel seins 0,4mm stark sein und deins 0,56mm hättet ihr das selbe Ergebnis.
 
t3chn0 schrieb:
Aber Vorsicht, dass sind andere als ich gezeigt habe. Deine hier haben 25 WMK, während meine 35 WMK besitzen. Wie groß der Unterschied in der Praxis ist, vermag ich nicht zu sagen.
Wäre ja mal was für einen Test hier auf CB. Die billigen gegen die teuren gegen MX.

Ich kann mir kaum vorstellen, dass es da signifikante Unterschiede gibt zwischen unterschiedlichen Graphit basierten Pads.
 
Bin gespannt wenn CB den 7900X3D in die Finger bekommt wie sich das auswirkt wenn es nur sechs Kerne mit dem Cache sind.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Also wenn ich mir den Test von Igors Lab anschaue, was die Prozzis in FullHD- 4K verbrauchen in Spielen, gibt es im Großen und Ganzen keine starken Ausreißer und bei vielen Prozzis kaum Unterschiede.
Bei diesen 20- 40 Watt und in der Preisklasse uninteressant.

Die neuen AMD 3D sind aber insgesamt aber effizienter. Test

023-03-02_104359_www.igorslab.de.png
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Tilman24 schrieb:
Leute die sich jetzt im GPU Limit befinden, werden durch einen 4k Test auch nicht schlauer.
Wenn man schon weiß, die GPU limitiert, kauft man ne dickere Karte nachdem man sich entsprechende GPU Benches angesehen hat.

Immer dieses null Verständnis für die Natur eines CPU Benches.

Du, glaube mir, ich habe ein sehr gutes Verständnis dafür.

Nur bringt das einer Laie nichts, wenn da steht der 13900k ist 40% schneller als ein 5800x z.B.
Er/Sie denkt dann direkt, er baut die CPU ein und voila, 40%.

Evtl. einfach dazu schreiben (copy paste in jedem Test) warum das so und so gemacht wird und was man in einer realen Konfiguration (zB RTX 3070 statt 4090) erwarten kann.
 
Erster Test zum 7900X3D von GN:


TLDR:
Generell langsamer als der 7950x3d, besser nicht kaufen.
 
  • Gefällt mir
Reaktionen: bad_sign und t3chn0
  • Gefällt mir
Reaktionen: me@home und Onkel Föhn
JA neue CPU wow, aber wo sind die 4k Benchmarks damit ich einen realistischen Vergleich ziehen kann, ob ein Upgrade sich lohnt?
 
Zurück
Oben