Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Ich hab so ein CL30 64GB ADATA 6000 KIT gekauft, war günstiger als damals das 64GB DDR4 Kit für den 5950X. Aber gut, 2021 war alles extra teuer...
 
H6-Mobs schrieb:
Eben nicht, Igor zeigt das ja hier eindrucksvoll, das es eben nicht so ist, wie viele hier behaubten. Die Intel Prozessoren saugen nur wie sau, wenn man sie an der Kotzgrenze betreibt (leider auch so von Intel so vorgesehen).
Naja, das ist ein 2160p Test mit der Leistungsaufnahme den du zeigst....da haben die CPUs kaum was zu tun...klar, dass die da enger und näher zusammenrücken.

Dann könnte man ja genauso behaupten in 2160p sind so gut wie alles CPUs gleich schnell. Wem bringt das jetzt was? Niemandem, keiner weiß dann wie schnell eigentlich die CPUs sind und keiner weiß, was sie wirklich verbrauchen, weil alle eh gebremst werden von der GPU.

Daher gibt es ja 720p/1080p CPU Tests, in denen die CPUs etwas leisten müssen,...also man kann es drehen und wenden wie man will, die Intel CPUs sind hier einfach deutlich durstiger. Es trennen hier schon ~40W nur bei den beiden 7950X und 13900K ehemals Topmodellen.
Absolut ist das vll nicht viel, aber relativ schon deutlich.

Zeigt ja auch der CB Test ;)

1677760722406.png


Man spricht ja auch nicht von dem Verbrauch der GPUs wenn sie in 720p getestet werden und behauptet dann die verbrauchen nicht viel, da sie ja aufgrund von CPU Limit überhaupt nicht ausgelastet sind.
Das ist doch Quatsch.
Selbe mit CPU Tests, hier wird in 720p der Verbrauch gemessen und nicht in 4k. Punkt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Rockstar85 und scheru
Laphonso schrieb:
Was hat das eine mit dem anderen zu tun? Als jemand, der u.a. ein RZ-Audit mitgemacht, kürzlich mit dem NdB-VN (kann Dir sogar die BSI Nummer nennen: BSI-IGZ-0518-2022) zu tun hatte und zertifizierte Alarmsysteme in Behörden eingeführt hat, muss ich schmunzeln. ;)

(P.S.: Die Sorgfaltspflicht gilt - davon abgesehen - immer)
Lass es mich so sagen: Es gibt oftmals gewisse Parallelen. Pauschal sicher nicht richtig.

Edit: Und es geht auch noch um eine Schule. Das sind die wo Lehrer sich in WhatsApp austauschen und man froh sein kann bei einer Massenmail nicht direkt in der „An“ Zeile zu stehen. Ich glaube ich lag da wohl goldrichtig 😁
 
  • Gefällt mir
Reaktionen: Laphonso
danyundsahne schrieb:
Selbe mit CPU Tests, hier wird in 720p der Verbrauch gemessen und nicht in 4k. Punkt
Ich sehe schon, das du es nicht verstehen willst und sich dann aufregen, wenn es Grabenkämpfe gibt. Solche Leute wie du sind eigentlich daran Schuld, weil viel Müll behauptet wird, obwohl man mit Fakten gegen argumentiert. Ich hab dir aufgezeigt, das 20 - 30 Watt Differenz beim Gaming der Beiden Prozessoren geschenkt sind und trotzdem wird weiter behauptet, das Intel säuft wie ein loch.
 
Willi-Fi schrieb:
Für eine Kaufentscheidung ist die CPU an sich zu teuer. Man benötigt jetzt wieder einen P/L Rechner samt aktuellen Preisen. Denn gerade 13k mit z690 DDR4 bleibt wie 5800x3D samt B350 immer noch interessant.

Hab es mal durchgerechnet anhand der Effizienz. Man spart bei täglich 3h zocken auf das Jahr gerechnet mit dem AMD ca. 30€ pro Jahr Stromkosten! Hätte deutlich mehr gedacht. Dadurch das die AM5 Architektur aber samt Mobo deutlich mehr kostet lohnt sich der AMD noch nicht. Ich bin aber trotzdem begeistert was AMD da mit 72Watt geschaffen hat.
 
  • Gefällt mir
Reaktionen: Willi-Fi
Shio schrieb:
TLDR: Schnellerer Arbeitsspeicher bringt nicht mehr so viel wie zu Ryzen 7000 ohne Vcache.
Die Erkenntnis gab es doch auch schon beim 5800X3D, warum sollte das also bei Zen4 mit 3D-Cache großartig anders sein. Der größte Teil der Performance der X3D Modelle kommt ja gerade daher, dass mehr sehr schneller Cache direkt in der CPU sitzt und damit weniger RAM-Zugriffe nötig sind.
 
+++++++++++++++++++++++++++++++++
+++++++++++++++++++++++++++++++++
Nach 101 Seiten Krieg hier braucht man entweder Valium oder Tempo‘s weils einfach unfassbar ist was hier diskutiert wird …
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
 
  • Gefällt mir
Reaktionen: Kommando
H6-Mobs schrieb:
Ich sehe schon, das du es nicht verstehen willst und sich dann aufregen, wenn es Grabenkämpfe gibt. Solche Leute wie du sind eigentlich daran Schuld, weil viel Müll behauptet wird, obwohl man mit Fakten gegen argumentiert. Ich hab dir aufgezeigt, das 20 - 30 Watt Differenz beim Gaming der Beiden Prozessoren geschenkt sind und trotzdem wird weiter behauptet, das Intel säuft wie ein loch.
Ich behaupte doch keinen Müll....das sind die Verbrauchsmessungen von CB.
In jeder Verbrauchsmessung sind im Gaming die CPUs mehr oder weniger auseinander. In 720p mehr, in 4K weniger (mit deiner Igor Folie). Das ist doch Fakt.
Genauso wie es Fakt ist, dass AMD im IDLE mehr verbraucht, ist es Fakt, dass Intel im Gaming mehr verbraucht je niedriger die Auflösung ist.
Auf der anderen Seite, je schneller die GPU wird, desto mehr kommen Intel CPUs auch an die 720p Verbrauchsmessungen heran, da die CPU einfach mehr tun muss, da mehr Bilder von der GPU gerendert und von der CPU berechnet werden müssen.
Das ist doch auch logisch, oder?

Aber was bringt es dann alles im Limit zu testen?? Willst du einen 4k CPU Test?? Nur damit du am Ende weißt dass alles CPU gleich schnell sind und gleich viel verbrauchen? Ernsthaft?

Und du unterstellst mir das ich jetzt Müll verbreite? Also komm.
 
Salamimander schrieb:
Das sind die wo Lehrer sich in WhatsApp austauschen und man froh sein kann bei einer Massenmail nicht direkt in der „An“ Zeile zu stehen. Ich glaube ich lag da wohl goldrichtig 😁
Das ist genau der Gag in diesen ganzen Konzepten. Die Arglosigkeit und Sorglosigkeit der Menschen.
Mein Highlight sind stets Externe, die im Auftrag einer Verwaltung agieren und darum bitten, dass man z.B. Meldedatenbestände (!) zur Verfügung stellt. Geht ja um Kooperation, der Gesetzgeber will das ja.
Lol.

Oder dass man "sicheren" Datenaustausch vorzieht und nicht den im "Internet". Der USB Stick mit den wichtigen Unterlagen sei auf dem Weg..

🤣🧐
Man schwankt zwischen Entsetzen und Belustigung.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Salamimander und danyundsahne
AceVentur4 schrieb:
Man spart bei täglich 3h zocken auf das Jahr gerechnet mit dem AMD ca. 30€ pro Jahr Stromkosten!
Und wenn man weitere 3Std. Surfen/Office/Youtube betreibt, geht es Richtung +/- Null
 
Neronomicon schrieb:
Also wenn ich mir den Test von Igors Lab anschaue, was die Prozzis in FullHD- 4K verbrauchen in Spielen, gibt es im Großen und Ganzen keine starken Ausreißer und bei vielen Prozzis kaum Unterschiede.
Bei diesen 20- 40 Watt und in der Preisklasse uninteressant.

Wie, das System mit einem Intel 13900K verbraucht bei Spielen (Anno) insgesamt genauso viel wie das System mit einem 7950X3D? Und bei average CPU Consumption bei Spielen wie Anno liegen der 13900K und der 7950X3D auch in etwa gleich?

Das kann ja alles nicht sein! Laut manchen Hatern verbraucht ja Intel locker 200 Watt mehr grundsätzlich, ohne wenn und aber, und ist genauso effizient wie ein Ofen. Wem glaube ich jetzt, den Hatern oder den Zahlen von Igor? :)

Natürlich wird auch die Leistungsaufnahme bei Spielen gut und gerne verwechselt mit Blender oder Prime95, ist ja auch alles dasselbe. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Trent
danyundsahne schrieb:
Aber was bringt es dann alles im Limit zu testen?? Willst du einen 4k CPU Test?? Nur damit du am Ende weißt dass alles CPU gleich schnell sind und gleich viel verbrauchen? Ernsthaft?
Du willst es nicht verstehen. Ich will CPU Test in 720P sehen, hab ich auch geschrieben, also gib nicht so ein Blödsinn von dir. Du behauptest, das der 13900k mehr wie 20 - 30 Watt verbraucht beim Gaming und dem ist ja nicht so. Du zeigst nur den Verbrauch eines CPU Test und den beim Gaming.
Für mich hat sich die Diskussion hier mit dir beendet, da du faktenresistent bist und Leuten sachen in den Mund legen möchtest, damit deine Argumentation hin haut.
 
Auf der Webseite wird für jedes Spiel auch der Verbrauch ermittelt ( das finde ich sehr aufschlussreich und sehr gut ), da sieht man sehr gut die Unterschiede.
Da kann sich ja jeder mal ausrechnen, wer dieses oder jenes Spiel zockt was für einen Mehrverbrauch er im Jahr hat.

Hier mal ein Beispiel was wirklich nicht so gut für Intel ist.
Beispiel Need for Speed Unbound:
Auflösung: 1920x1080

AMD Ryzen 9 7950X3D: 184,03 FPS

Intel i9 - 13900K : 176,61 FPS

Intel bringt nur 7,42 FPS weniger,ABER:

AMD Ryzen 9 7950X3D: 92,53 W

Intel i9 - 13900K : 204,2 W

Intel verbraucht bei den 7,42 FPS weniger aber trotzdem 111,67 W mehr.

1677764529520.png


Die getesteten Spiele auf der Webseite:

[Liste der verifizierten Spiele]
Overwatch 2
Call of Duty: Modern Warfare II
Tiny Tinas Wunderlande
→Seite 2

F1 22
Forza Horizon 5
Need for Speed Unbound
→Seite 3

Cyberpunk 2077
Atomic Heart
HITMAN 3
→Seite 4

Wiederkehr
Marvels Spider-Man: Miles Morales
FORSPOKEN
→Seite 5.

Uncharted: Schatzsucher-Sammlung
Der tote Weltraum (2023)
Hogwarts Vermächtnis
→Seite 6.

https://ascii.jp/elem/000/004/126/4126537/
 
  • Gefällt mir
Reaktionen: Onkel Föhn, danyundsahne und Anon-525334
Klever schrieb:
Wem glaube ich jetzt, den Hatern oder den Zahlen von Igor? :)
Auf keinem Fall den Hatern von beiden Seiten, so schwierig ist es ja nicht sich die Seite selbst mal anzusehen.
30 bis 40 Watt kommt schon hin, ob einem das stört muss jeder für sich selbst entscheiden aber keine Unterschiede sind es Prozentual nun auch nicht.

Igor:

Effizienz beim Gaming

Betrachten wir jetzt die bereits die schon öfters erwähnte Effizienz. Es ist eine glatte Demütigung. Nicht nur für Intel, sondern auch für alle anderen Ryzen-7000-CPUs! Auch wenn der bisherige Effizienzsieger Ryzen 7 5800X3D ähnlich genügsam ist, ist er doch deutlich langsamer als der Ryzen 9 7950X3D. Und der Intel Core i9-13900K? Der wird mit Schmackes in den energetischen Fluten versenkt.
 
  • Gefällt mir
Reaktionen: ArrakisSand, Onkel Föhn, danyundsahne und eine weitere Person
Klever schrieb:
Das kann ja alles nicht sein! Laut manchen Hatern verbraucht ja Intel locker 200 Watt mehr grundsätzlich, ohne wenn und aber, und ist genauso effizient wie ein Ofen. Wem glaube ich jetzt, den Hatern oder den Zahlen von Igor?
Die meisten sind hier einfach Faktenresistent. Die X3D sind sehr gute und effiziente CPUs, keine Frage aber beim Gaming verbrauchen sie alle im großen und ganzen gleich viel. Viele wollen das auch nicht sehen, warum auch. AMD der liebe Gott, Intel und Nvidia der Teufel. Das war schon immer so und wird auch immer so bleiben.
 
H6-Mobs schrieb:
Du willst es nicht verstehen. Ich will CPU Test in 720P sehen, hab ich auch geschrieben,
und zeigst mir einen 4K Verbrauchstest. Was hat das dann für einen Sinn wenn ich selbst die ganze Zeit von 720p Verbrauchstests rede?!
H6-Mobs schrieb:
Du behauptest, das der 13900k mehr wie 20 - 30 Watt verbraucht beim Gaming und dem ist ja nicht so. Du zeigst nur den Verbrauch eines CPU Test und den beim Gaming.
Hä, du widersprichst dir doch gerade selbst?!
Ich zeige mit CPU Tests UND mit Gamingtests, dass der 13900k viel durstiger ist....und das mit Fakten hier aus dem CB Test.
Und du kommst dann mit dem 4K Test einer anderen Seite um die Ecke was nichts, aber absolut garnichts mit einem 720p Test zu vergleichen ist...

Was unterstellst du mir jetzt dass das net stimmt?! Jetzt verdrehst du aber selbst alles...

H6-Mobs schrieb:
Für mich hat sich die Diskussion hier mit dir beendet, da du faktenresistent bist und Leuten sachen in den Mund legen möchtest, damit deine Argumentation hin haut.
Diesen Satz kann ich direkt auf dich - wie hier schön alles zitiert - anwenden :)

In dem Sinne, adé :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn und eXe777
PUBG wäre so wichtig zu sehen, es gibt bisher nur 2x Videos dazu auf Youtube und die sehen beide sehr sehr stark nach fake aus...

Kann irgendjemand glaubhaft bestätigen das der 7950X3D ca. ~33% schneller ist, in PUBG, als der 13900ks ??
 
BlackhandTV schrieb:
ca. ~33% schneller ist, in PUBG, als der 13900ks ??
Könnte schon hinkommen. Der 5800X3D war ja schon auf einer Ebene mit dem 13900K in dem Spiel. Dann eine Differenz von ca. 25% zwischen 7950X3D und dem 5800X3D und du bist ungefähr da.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Kai85
Zurück
Oben