Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen 7 7800X3D im Test: Die X3D-CPU für alle, die nur spielen wollen
Deswegen sind Games wie Factorio viel besser geeignet als ein schlecht gecodetes Game. Man sieht wie die Skalierung und der Zugriff auf Cache, sich wiederspiegelt in Leistung.. Man könnte halt auch IPC in den Mund nehmen.. Nur heisst es bei Factorio sinnigerweise UPS.
Das wird hier langsam echt wieder ein Shitposting.
"Schlecht gecodetes" Spiel ist aber nicht das gleiche wie ein nicht spielenswertes Spiel. In Absitnenz leben, während man nur "Reinheit" erlaubt, sorgt für viele verpasste Erlebnisse: Ein CP2077 inklusive, was ich kurz nach Release auf einer 3070 in 4k praktisch Bugfrei durchgespielt habe.
mal wieder jemand der mein Kommentar nicht versteht
wie du selbst gesagt hast, sucht man also völlig sinnlos einen Test um zwanghaft einen Unterschied aufzuzeigen den es in der Realität gar nicht gibt..
sinnvoller wäre es in 1080p bis 4k zu gucken ob es überhaupt irgendwo einen Unterschied gibt..
weiß nicht was jetzt daran so toll sein soll gamer in eine Falle zu locken und die glauben zu lassen die 3D Modelle wäre das mega super hype update was jeder kaufen muss...
selbst der Titel dieses Artikels hier ist ja komplett irreführend "Die X3D-CPU für alle, die nur spielen wollen"
wer nur spielen will kauft sich einfach einen 7600x
"der Ryzen 7 7800X3D ist hingegen für 499 Euro ganz klar eine Gaming-PC-CPU"
im Fazit wird die 7600x als Alternative für Gamer gar nicht erst erwähnt..
Wer lesen kann ist klar im Vorteil. Vielleicht solltest du erst den Kommentar zuvor verstehen, auf den ich geantwortet habe, um dir dann eine Meinung zu bilden.
Er behauptete "25% Leistungszuwachs im Gaming-Performancerating" zu jemandem der meinte, dass das Aufrüsten vom 5800X3D wenig bringt.
Wobei er eben damit Recht hat, dass es eh nichts groß bringt, wenn er schon den 5800X3D hat, geschweige denn kennen wir seine Auflösung & GPU nicht und diese 25% gingen eben nur von diesem realitätsfernen Testszenario aus.
Was soll das jetzt damit zu tun haben, dass ich nicht weiß wie man eine CPU testet?
Haste dich mal eben kurz schlau gefühlt? Dumm gelaufen.
@Chris007 du kannst auch mit einem 10 Jahre alten Rechner zocken! Aber nicht mit der Qualität von einem 13700K/13900K/7800x3D/7950x3D, aber sag dir das nur immer wieder.
Spiele mal MSFS2020 mit einem 7950x3D oder dem 7600x, da merkst du Unterschiede und was für welche!
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ok wild, hab 2-3 Youtuber gesehen die einfach die CPU als das absolute non-plus-ultra für Gaming an sehen, klar es wird dann als Randnote auch beim einen oder anderen erwähnt das bei 4k vieles eng zusammen ist, aber darum gehts ja nicht.
Und da hat Linus auch gute Argumente gebracht das es nicht nur um Balken in Benchmarks geht sondern auch das wenn GPUs raus kommen die die CPU ins Limit bringt der Abstand sich vergroessern wird, und ja es gibt sehr wohl auch Spieler die mit niedrigeren Auflösungen spielen.
Wie dem auch sei, ich warte noch auf den Test von Nvidia RTX 4090 wo auch nur gesagt wird wer nicht nur auf Benchmark Balken schaut sondern Preis-Leistung wichtiger ist ist mit irgendwelchen Last Gen AMD Karten besser bedient.
Nun das das ne Nische ist, war ja von vorneherein klar auch die 5800X3D war ne Nische, nochmal das ist auch die RTX 4090, aber wo steht denn das die 4090 nur was für "highend gaming" ist?
Ich halte das Geschwaffel über die Kosten von anderen Komponenten auch bescheuert, wo wird denn bei ner 4090 gerückt das die nur was bringt wenn man auch ne teure CPU dazu kauft? Vor dem 520 Chipsatz und Preisverfall beim DDR5 Speicher fand ich die Kritik ja noch gerechtfertigt, weil sie so stark über den Intelkosten waren oder den AM4 Kosten, aber jetzt, sicher fuer viele ist das zu teuer aber für Viele ist vieles zu teuer, fuer die wo so nen Mainboard und Ram zu teuer ist wird solch eine CPU generell zu teuer sein da man sich auch ne entsprechende Grafikkarte die davon profitiert wahrscheinlich nicht leisten kann.
Ja die CPU ist nicht für alle, aber würde Nvidia für ne Midrange Preis Grafikkarte die die schnellste Spielegrafikkarte ist aber bei Anwendungen versagen würde, auch so abgecancelt?
Und ja der Stromverbrauch wird zwar erwähnt aber man könnte anhand der Wucher Stromkostenpreise mal ein zwei Rechnungen machen wie viel Geld man bei welchem Spiele-verhalten gegenüber Intel sparen kann.
Ich kann verstehen das man nicht sich so auf ne kleine Elite an Gamern oder Käufern sich fokussieren will und daher sagt, ja die CPU ist für die meisten Leute nichts, aber das selbe ist richtig für ne RTX 4090 die ist auch viel zu teuer und teurer als die Last gen die auch schon sehr teuer war und daher auch ne Schlechte Grafikkarte für die meisten Menschen, trotzdem wurde die sehr gelobt.
Klar sind vermutlich nicht die gleichen Authoren und dann hat man nen Grafikkartentester der die Leistungsspitze in den Himmel lobt, und bei CPUs wird nur der Preisleistungssieg ueber alles gestellt von nem anderen Team aber das halt nicht konsistent. Naja ist halt so. Intel baut die besten CPUs ... gotcha...
Die CPU ist zu dem Preis in meinen Augen eine Totgeburt, für weniger Geld bekommt man mit dem 13700K fast 50% mehr Multicoreleistung und liegt in Games nur 10% zurück.
Mehr als 400€ darf der 7800X3D nicht kosten, eher sogar 350€.
Stell' Dir vor, es gibt Menschen, die wollen nur Zocken und das bissl Internet und email und Office ist vollkommen Banane. Du kannst Dir natürlich die Bude ordentlich heizen, 13700K schön overclocken und eben die ersparten Kosten bei der Stromrechnung begleichen...
empfehle ich dir aufjedenfall, ich hab extra schon für die 4090 vom 5800X auf den 5800x3D geupgradet aber stecke immernoch in vielen Spielen vorallem wenn Raytracing aktiv ist im CPU Limit unter 4K sogar! zuletzt in Hogwarts Legacy bei 115FPS. Ohne DLSS3 hätte die CPU schon früher dicht gemacht.
Konkurrenzfähig ist nicht gut genug! Denn Intel ist in dem Bereich auch schlecht aufgestellt. Heutzutage sollten sich Desktopsysteme im Idle und sogar im Quasi-Idle im einstelligen Wattbereich bewegen. Für NUCs (auf Notebookplattformbasis) stellt das auch kein Problem dar; Intel, AMD und die Boardpartner müssten ihre Kompetenz aber auch mal ausnutzen.
Ähm, wenn man (die Boardhersteller) 12-20 Phasen verbaut, dann kanns im Idle nicht so wirklich runtergehen, wenn die Controller die Phasen nicht komplett abschalten. Das könnte vielleicht Igor testen
CDLABSRadonP... schrieb:
Es gibt User, die behaupten, es läge am Chipletdesign. Das ist aber Blödsinn, denn auch die monolithischen APUs kommen nicht in den einstelligen Bereich. Insgesamt ist mehr im Argen und das größte Problem ist höchstwahrscheinlich ganz simpel: Fehlendes Interesse.
Die kommen in den einstelligen Bereich, wenn man keinen Chipsatz hat (Deskmini), 8-12W
Ergänzung ()
qu1gon schrieb:
Stromverbrauch ist ja schön, aber rein beim Gaming verbrauchen die Intel's ja auch nicht die "Welt".
Daher würde nach dem Motto "lieber haben als brauchen" zum 13700K greifen, denn in Anwendungen
verbraucht er dann mehr - bietet aber auch klar und deutlich viel mehr Leistung.
Gaming is es mir Jacke wie Hose, ob ich 150 FPS oder 165 FPS habe, erst recht wenn ein FPS Limit eingestellt ist.
Wenn Du Igor's Test liest:
1080p: 7800X3D: 40.6W/13900K: 75.3W +85.5%/13700K: 77.7W +91.4%
1440p: 7800X3D: 39.4W/13900K: 72.9W +85.0%/13700K: 75.8W +92.4%
2160p: 7800X3D: 36.3W/13900K: 63.0W +73.6%/13700K: 66.1W +82.1%
Ergänzung ()
Sedro schrieb:
Ganz ehrlich, ich wüsste nicht mal welches Board ich für einen 7800X3D nehmen würde. Die überrissenen Preise hinterlassen bei mir einen ziemlich faden Beigeschmack.
PCIe 5.0 auf Grakas... ich denke nicht, daß das relevant sein wird. Relevant wird der Speicher auf der Graka sein. Wenn schon so ein Hogwarts Legacy ruckelig wird, weil man keine 16GB hat, dann sollte man die Kohle besser dort investieren, das Problem wird sich in den kommenden 2 Jahren verschlimmern.
Ergänzung ()
abduladarula schrieb:
Wie viel % wäre diese CPU jetzt schneller als mein 3700x?
Das kann +125% sein, wenn Du eine 4090 kaufst und nur in 1080p spielst.
Das kommt nunmal auf die Aufllösung, Graka und das Spiel an. Check mal die 5800X3D Reviews, das ist wohl ein günstigerer Pfad für Dich, bevor Du alles neu kaufst
Ergänzung ()
seyfhor schrieb:
Was man dann am 620er Chipsatz Board spart kann man ja locker in die X3D stecken. Bin echt am Überlegen.
Du kannst NUR das ASRock A620M-HDV/M.2+ oder das ASRock A620M Pro RS nehmen, alle anderen Boards haben eine beschissene VRMs. Wenn Du noch 20-30 Okken über hast, dann das B650M-HDV/M.2
Ergänzung ()
ilovebytes schrieb:
Schade das Amd den 7800x3d in der Andwendungsleistung so starkt einbremst, andererseits gut für mich, spar ich mir vorerst das Aufrüsten und der 5900x bleibt....
Wenn die GPU limitiert ists egal wie stark die CPU ist.
Was denkst du warum hier ne 4090 bei 720p betrieben wird?
Bei 4k ist ein 7600 genau so stark wie ein 7950X3D. Benchmarks dazu findest du bei Anandtech.
Gibt leider ganz viele die das nicht wissen und unnötig Geld zum Fenster rauswerfen.
CPU-Benchmarks sind also völlig irrelevant, bzw. spiegeln nicht ein reales System wider, weil kein Mensch eine 4090 bei 720p oder 1080p betreibt (außer bei CPU-Benchmarks).
Gääähnn...
Anno, Total War, Civ, Valheim, Factorio, Stellaris, X4, EU4 viele andere Strategiespiele und so ziemlich alle Modder sehen das etwas anders.
Interessant wäre mal ein Nutzen/Kosten—Vergleich mit einem Ryzen 5 5600 in 1440p.
Könnte mal jemand ein Diagramm rauspacken, wo man den Leistungszuwachs annähernd real nachvollziehen kann?
Weil wenn dann in Spielen ein Zuwachs im Mittel von 10-15fps anliegen, wäre das doch sicherlich für viele Gamer genau das, wonach gesucht wird. Zu wissen, dass man für diese lächerlichen fps mehr als 500€ auf den Tisch legen soll, beruhigt doch ungemein, oder? xD
Wie kann man eine solche Aussage treffen? Beispiel Anwendungsbenchmark (7 Zip bei PCGH). Die Leistung des 7900X3D spricht in dem Fall für sich. Und dies erkauft er sich nicht über eine signifikant geringere Spiele-Leistung.
Diese Aussage kann man treffen, weil der Preisunterschied zwischen 7900X3D und 7950X3D von MRSP her unerheblich ist. In den USA kostet der 7900X3D nur noch 549.99$, das wären bei uns 597,62 inkl. Steuer. Das macht das Produkt schon interessanter Deswegen sind die 7900X3D auch lagernd und die 7950X3D meistens nicht. Und 7-Zip ist kein Anwendungsbenchmark der relevant wäre... so oft zippt man Dateien nicht.
Ergänzung ()
KempA schrieb:
Jetzt ärgere ich mich etwas, im Januar ein AM5-System mit einem 7600X als Übergang bis zum 7800X3D-Release gekauft zu haben.
Im Nachhinein halte ich das 13700K-Paket (FÜR MICH!!, hier geht es NICHT um AMD vs Intel meine Lieben) für etwas stimmiger.
nein, weil maximal kommen 6200 (mit Glück 6400) raus. Die Kosten sind wesentlich höher und wenn man eine 3D-V Cache CPU verwendet, spielt RAM Speed eine noch geringere Rolle.
Ergänzung ()
Master Chief ! schrieb:
Richtig, für dich macht ein Upgrade vom 5800x3d auf AM5 und den 7800x3d wenig Sinn, außer man hat zuviel Geld.
Aber für Gamer wie mich, die noch einen 3700x oder noch ältere CPU haben, für die macht ein Upgrade auf einen 7800x3d und AM5 sehr viel Sinn.
Zumal man dann ja in ca 3-4 Jahren dann auch einen ??800x3d auf das "alte" AM5 Mainboard packen kann und du dann wiedrrum noch alles komplett neu kaufen mußt. 32 GB DDR5 RAM wird auf jedenfall nicht mehr viel günstiger sein in 3-4 Jahren, eher wieder teurer.
Jein. BIOS-Update, 5800X3D rein und fertig. Du mußt nix frickeln, nix neu installieren, läuft einfach.
Ergänzung ()
ilovebytes schrieb:
naja wenn Games mal mehr als 6 (3d) Kerne brauchen dann hat der 7900x3d ja zumindest noch 6 weitere ohne 3d die dann ein bisschen mithelfen können. Natürlich nicht so schnell wie bei den Cpus mit 8 3d Kernen aber so schlecht nun auch wieder nicht.
Das Problem sind dann nicht die Kerne, sondern die zusätzliche Latenz, weil der 2te CCD dann auf den Cache des ersten zugreifen muß oder aber direkt wieder auf den RAM zugreifen darf. Ergo wenn da 2 zusätzliche Kerne mit dem Spiel beschäftigt sind, werden Daten im L2 Cache des 2ten CCD dauernd geswappt, weil der eben nur 1/3 so groß ist wie auf dem ersten CCD. Und das kostet brachial viel Leistung. Daher ist das keine gute Lösung. Eine 8+4 Konfiguration wäre sinnvoller gewesen. Und wenn das Spiel den Cache nicht braucht, weil schon auf wenig Cache optimiert, kannst Dir cdn 3D-V Cache komplett sparen und eine 7900X nehmen.
Ergänzung ()
fairhext schrieb:
Es fehlt halt ganz klar nen 7600X3D. Der 6kern CCD0 performt ja super aufm 7900X3D. Völliges Unverständnis meinerseits das da nicht zumindestens Mal nen 6core X3D angekündigt wurde von Anfang an
Kosten/Nutzen. Unverständlich warum nicht beide CCDs mit V-Cache vollgestopft wurden. die $50 hätten es auch noch sein können und man hätte sich die Game Bar und sonstigen Mist sparen können.
Ergänzung ()
CDLABSRadonP... schrieb:
Ein 7600X3D ergäbe eigentlich nur Sinn mit teildefekten V-Cache-DIEs. Aber wahrscheinlich ist deren Yield viel zu gut; sie sind ja winzig und werden noch in N7 gefertigt.