Test AMD Ryzen 7 7800X3D im Test: Die X3D-CPU für alle, die nur spielen wollen

Weil hier oft über den Idle Verbrauch diskutiert wird. Es ist nicht unbedingt ein unbedeutender Faktor. Schön wäre es natürlich wenn Desktop Systeme noch weniger verbrauchen würden, doch an die Effizienz werden potente Rechner (ARM Systeme nicht inbegriffen) auch im idle nie an Laptops heranreichen (aus div. Gründen) Im Idle verbrauchen viele Laptops weniger als alleine schon PC Netzteile an Verlustleistung ("ungenutze" Energie, die nur in Wärme ungewandelt wird) fabrizieren. Da ist jeder potente Rechner ne Energieschleuder dagegen. Selbst, wenn ein potenter Komplettrechner mit 30W idlen würde, so könnten damit zusammen etwa 5 Laptops (Laptops mit iGPU und mobiler CPU mit 15-45 W TDP) idlen.

Ich fände es großartig, wenn ich am Rechner das Handy mit Thunderbolt koppeln könnte, und das Handy für Multimedia, Office und Internet nutzen könnte und dabei den angeschlossenen Monitor und dessen Peripherie verwenden könnte und ggf. sogar auf die angeschlossenen Datenspeicher des PCs zugreifen könnte. Das wäre ein tolles Hybridsystem. Ich mein Handydocks mit Monitor und USB Anschlüssen gibt es ja längst. Es ist aber immernoch ein Niechenprodukt und auch nicht jedes Handy supported Bildausgabe über den USB-C Port.
 
flatline1 schrieb:
Wieso sollten die?
Oder glaubst du das es nur Spieler gibt die CPUs kaufen ?
Für jeden der nicht spielen will bringt eine 3DCache CPU so gut wie nix.

Es gibt ja bereits den 7950X3D, der in Anwendungen sehr überzeugt. Den 7950X hätte man sich also sparen können. Der 7900X sowie 7900X3D hat Stand jetzt eig kaum eine Daseinsberechtigung und verkaufen sich beide ziemlich schlecht. Der 7700X ist auch über, denn nur Spieler kaufen sich den 7800X3D und richtige Anwender den 50er 3D. Dann bliebe nur noch ein Budget 6 Kerner, den man in der nächsten Gen auch mit Cache ausstatten kann, weil die CPU als Non3D für richtige Anwender sowieso zu langsam ist.
 
Boimler schrieb:
Bei Simulationen und WQHD würde ich wahrscheinlich auch lieber 8 Kerne nehmen, aber ich hab noch keine Partie in Anno 1800 oder Civ gespielt, wo im Late Game die Framezahl in den unspielbaren Bereich ging mit dem 5600X. Also durchaus ein bespielbares CPU-Limit.
Wenn du wie bei Cities Skylines an die großen Bevölkerungszahlen rankommst, dann merkst du es ... aber ja.. ICh sag mal So der Switch vom 1600AF zum 5700X, hat 200 Jahre mehr Endgame in Stellaris gebraucht und Raumschlachten, die man angucken kann ^^
 
  • Gefällt mir
Reaktionen: Boimler
SVΞN schrieb:
* Zen 5 und Zen 5 3D kommen 2024 im Desktop
Gegen 2024 spricht ja auch nichts, hat ja keiner was anderes gesagt. Es wird aber sicher nicht Anfang 2024 sein. Das macht produktpolitisch überhaupt keinen Sinn. Schon gar nicht beim 3D, dessen Zyklus nichtmal 10 Monate wären. Zumal man sicher erstmal schauen will, was Intel so macht und da kommt bis Anfang 24 so gut wie nichts.
 
outlaw! schrieb:
Ich habe mal eine Frage bzgl. der Schwäche des 7800x3d in Anwendungsfällen.
Wenn ich primär spiele und sonst nur Browser und Office Anwendungen tätige....verstehe ich, dass mich diese CPU nicht einschränkt. Weil aber so Bench Anwendungen wie 7Zip schon deutlich schwächer sind als bei i7 und i9....wie ist es denn in den Szenarios wo z.B. via Steam teilweise 90gig großes games runtergeladen, entpacket und dann installiert werden.
Gerade beim Entpacken und Installieren. Meint ihr man merkt die "Bremse" extrem mit dem 7800x3d?
Danke und VG
Ja, der bremst dich schon extrem aus beim installieren und entpacken. Beim entpacken braucht der statt 5 Minuten vielleicht 6 Minuten. Wenn du 10 solche Spiele entpackst hast du ja schon 10 Minuten verloren. In der Zeit hätte man ja auch den Müll runterbringen können. Warscheinlich hast du mit dem verfassen deines Artikels und dem Gedanken machen über das Einbremsen schon mehr Zeit verloren als wie mit dem entpacken sämtlicher Spiele der nächsten Jahre.

Ein 7800X3D als extreme Bremse? Du denkst darüber nach dir eine andere CPU zu kaufen, weil du dann die Spiele schneller entpacken und installieren könntest, was du ungefähr 0,0000001% der Laufzeit des PCs tust? Für diesen seltenen Anwendungsfall solltest du dir am besten einen 7950X3D kaufen, dann bist du auf der sicheren Seite.
 
  • Gefällt mir
Reaktionen: Ginmarr, McFritte, alkaAdeluxx und 5 andere
Not.Me schrieb:
Package C6 mit einer dGPU ist wohl in meisten Fällen nicht möglich. Mehr als C3 ist in der Regel nicht drin, soweit mir bekannt. Um wie viel würde sich die Leistungsaufnahme erhöhen, wenn das System in Package C3 laufen würde?

Unter Windows ist Package C6 mit einer dGPU eigentlich nie ein Problem, zumindest mit Radeon-Grafikkarten läuft das seit vielen Generationen einwandfrei.
Evtl. bekommen (einige? alle?) Nvidia-Grakas(Treiber) das Ganze nicht gebacken, was angesicht deren halbherzig-grottigen ASPM-Umsetzung nicht überraschen sollte.

Unter Linux scheint C3 generell oft das Maximum zu sein, siehe z.B. hier: https://www.computerbase.de/forum/t...-idle-kuenstler.1967755/page-21#post-27149096
Das Problem soll angeblich mit neueren Kernel behoben sein/werden.

C3 unter Windows müsste ich mal mit Zen 4 testen bzw. erstmal irgendwie erzwingen, momentan ist das BIOS eigentlich stock und alle Stromsparmechanismen greifen, ob ich will oder nicht. Lediglich ASPM könnte ich unter Windows deaktivieren.

Übrigens, habe ich die dGPU (RX 6600) mal am Mainboard HDMI-Port angeschlossen (sie wird so durch die iGPU angesteuert), nun bin ich selbst mit RX 6600 bei 12-12,5 Watt im Idle ;) Der 3DMark Time Spy spuckt exakt die gleiche GPU-Score aus wie am Graka HDMI-Port und das unter Windows 10.
 
  • Gefällt mir
Reaktionen: herculesgott, Not.Me und Rockstar85
Chilisidian schrieb:
4 Monate nach Release die 3D zu bringen, die die Non3D komplett in den Boden rammen und mal eben so viel schneller sind, wie früher eine ganze Gen auf die nächste, ergibt jetzt betrachtet überhaupt keinen Sinn
Das lag wohl an der Ausbeute der Chips und das "kennenlernen" der Architektur. Bzw. muss man erstmal die Chipgüte hochbekommen. Verbindung 3d Cache und 2 Chiplets war auch neu. Die Scheduler müssten dafür auch erstmal geschrieben werden.
Und sieht man sich die schlechte aber durchaus vorhandene Verfügbarkeit an, war ein früher Zeitpunkt des Launches Imhof nicht möglich.
1.Wollte man den 13900 schlagen und zwar deutlich -->Positives Marketing
2. Verfügbarkeit von Beginn an--> Kein negatives Marketing




Habe es selber so in einen Beitrag gelesen, mit etwas Spekulationen im Bereich Scheduler von mir Ob der mit einer AMD Quelle hinterlegt war, weiß ich nicht mehr. Bin mit aber fast sicher das dem so war.
 
cypeak schrieb:
ich kämpfe ja schon länger gegen diese unsägliche 720p benchmarks, welche dann leider als reine wahrheit hingenommen werden..
Mach es doch wie die "Profis" Vom Userbenchmark, die nun in der Ausformulierung den Enrage Mode eines 7 jährigen erreicht haben.. Man misst CPU nun mal einem Limit, wo nicht die GPU relevant ist.. Also muss man auf 720p.. noch geringer wäre natürlich besser

1680891411351.png

Wenn Userbench mal wieder den Parkours umstellt, hat AMD alles richtig gemacht ^^ Advanced Marketing ist witzig.. Merk ich mir
Da knallt mittlerweile der Dunning Kruger Effekt massiv bei den Jungs. Nebenbei angemerkt ist die Aussage halt sogar falsch, aber is ja Marketing Seitens UB ;) Linus ist ja auch AMD Fanboi, weswegen er nen Intel Arc Intensiver als alle anderen zusammen getestet hat xD

Wobei die Aussage dann hier auch Strange ist:
1680891763195.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Der Lord, Anon-525334 und eine weitere Person
cypeak schrieb:
mit dem streben nach immer höheren auflösungen (wqhd, uhd, ..) wird die relevanz der cpu für die performance immer geringer...
und was ist wenn du in 4K mit 240FPS spielen willst ? was bringen dir dann 4K, WQHD Benchmarks in ultra Details im GPU Limit ? übrigens kannsde sicher auch mit einer 6700XT in low Details in 4K zocken um diese FPS dann zu erreichen,

solltest es im Grunde langsam besser wissen, seit fast 10 Jahren, wieso und weshalb in 720P getestet wird
 
  • Gefällt mir
Reaktionen: t3chn0, Pisaro und Rockstar85
Taxxor schrieb:
Doom Eternal ist auch so ein Fall, wo der 7800X3D nur 8% auf den 5800X3D zugelegt hat, was aber daran liegt, dass das Spiel mit der CPU auch mit der 4090 in 720p ins GPU Limit rennt.
Das ist halt typisch Dave, ihm fehlt der Schritt der Plausibilitätsprüfung.
Ergibt mein Ergebnis Sinn?
Das passiert bei ihm öfters, weshalb ich inzwischen die Tests gar nicht mehr anschaue. 0 Vertrauen
 
  • Gefällt mir
Reaktionen: herculesgott und Volker
Windell schrieb:
Ja aber was daran widerspricht sich mit meiner Aussage? Hab gesagt das man als AM4 User einfach AM5 überspringen kann und auf AM6 warten.

Vorausgesetzt natürlich man hat ne 5xxx CPU, fürs Gaming bestenfalls den 5800X3D.
Weil man noch gar nicht weiß, was für CPU noch für AM5 folgen.
Wie kann dann ein Fazit erfolgen, das man AM5 überspringen kann.

Der 5800x3D ist eine gute CPU, aber alle anderen auf AM4 sind viel zu langsam im Gaming, vorausgesetzt man hat die richtige Grafikkarte.
Und selbst der 5800x3D bremst bereits häufiger eine 4090 oder 4080 aus.

Insbesondere wenn RayTracing im Spiel ist.
 
  • Gefällt mir
Reaktionen: Celinna
Also ich rüste immer nur dann auf, wenn es ein neues Speicherstandart gib, da es sich einfach für mich nicht lohnt.

Mein nächster Sockel wird eins von AMD oder Intel sein, dass den DDR6 Speicher mit sich bringt vorher kann ich alles überspringen.

Wo ich sofort zuschlagen könnte, ist bei einem neuen Bord da meins aktuell nur PCI 4.0 SSDs unterstützt.
Möchte mir bald eine PCI 5.0 SSD anschaffen.

Die Frage ist halt, ob es Intel Untersatz dafür gibt.
 
HaRdWar§FreSseR schrieb:
Also ich rüste immer nur dann auf, wenn es ein neues Speicherstandart gib, da es sich einfach für mich nicht lohnt.
Macht es, wenn du jeweils nur einmal aufrüsten willst, nicht mehr Sinn, irgendwann in der Mitte oder gegen Ende eines neuen Speicherstandards aufzurüsten?

So hast du jetzt quasi die schlechteste Variante von DDR5 im System und kaufst als nächstes dann für teuren Early Adopter Aufschlag die schlechteste Variante von DDR6, die nicht viel besser sein wird als die bis dahin gereiften DDR5 Module für die Hälfte.
 
  • Gefällt mir
Reaktionen: Celinna, McFritte, SVΞN und 2 andere
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Freiheraus schrieb:
Unter Windows ist Package C6 mit einer dGPU eigentlich nie ein Problem, zumindest mit Radeon-Grafikkarten läuft das seit vielen Generationen einwandfrei.
Dann muss ich doch noch mal weiter ausprobieren. Vielleicht habe ich auch zu schnell aufgegeben, da ich mit meiner alten 1080ti so erfolglos war. Ich besitze inzwischen eine Radeon 6800 (Ref), allerdings noch mit ASUS Z370-I und 8700K. Aber das soll auch nicht mehr ewig bleiben.

Übrigens, habe ich die dGPU (RX 6600) mal am Mainboard HDMI-Port angeschlossen (sie wird so durch die iGPU angesteuert), nun bin ich selbst mit RX 6600 bei 12-12,5 Watt im Idle ;)
Das Feature finde ich auch sehr interessant und könnte mich ua. dazu bewegen demnächst komplett auf AMD umzusatteln.
 
Zuletzt bearbeitet:
Verak Drezzt schrieb:
unterstützt nur Z790 mit DDR5, aber wenn du die Bandbreite nicht zum arbeiten nutzt, würde ich mir kein neues Board nur für eine PCIe 5.0 SSD zulegen: https://geizhals.de/?cat=mbp4_1700&xf=317_Z790~8405_PCIe+5.0+x4
Danke für die Liste, das ASRock Z790 Taichi gefällt mir sehr gut werde ich sehr wahrscheinlich holen.

Ich weiß dass es mir kaum was bringt, möchte einfach nur den neusten Standard haben, das ist alles. :)
Ergänzung ()

Taxxor schrieb:
Macht es, wenn du jeweils nur einmal aufrüsten willst, nicht mehr Sinn, irgendwann in der Mitte oder gegen Ende eines neuen Speicherstandards aufzurüsten?
Die Leistung ist mir egal, bring eh kaum, was geht mir nur um den Standard.^^
 
Taxxor schrieb:
Macht es, wenn du jeweils nur einmal aufrüsten willst, nicht mehr Sinn, irgendwann in der Mitte oder gegen Ende eines neuen Speicherstandards aufzurüsten?

Ja oder eben am Anfang einer Gen sehr guten Speicher, der dann immer noch besser ist, als der schlechte der nächsten Gen. Müsste ja aufs selbe rauskommen bei den Kosten.
 
bad_sign schrieb:
Ne nicht Sponsoring, das müssen sie offenlegen, sonst gibts vom Staat auf die Pfoten
Inkompetenz ist das Wort
Echt? 4070 TI Preiswert? Beste Headline ever. Die Gpu Tests stinken nach Nvidia. Der Journalistische Maulkorb von Nvidia ist kein Geheimnis.

Aber bevor du noch weiter auf Dave rumhackst hätte ich gerne deine Cpu Tests mal gesehen.

Fehler passieren. Vor kurzem wurden Ls getestet und für schrott befunden nach der Messung weil der Tester nicht gerafft hat das die Frequenzerweiterung aktiv war beim testen........das finde ich derinitiv derber. Als ein paar % die doch ausser fanboys und Amd niemanden jucken. Wenn amd mal irgendwas releasen könnte ohne bugs oder beta Software wäre es auch einfacher.....

Wie viele agesas wird es jetzt brauchen?

Frisch windows installieren wegen neuer Cpu? Was ham die gesoffen?

Gute Produkte und gleich wieder ruf schänden. Sind echt alle hersteller gleich.
 
bad_sign schrieb:
Das ist halt typisch Dave, ihm fehlt der Schritt der Plausibilitätsprüfung.
Ergibt mein Ergebnis Sinn?
Das passiert bei ihm öfters, weshalb ich inzwischen die Tests gar nicht mehr anschaue. 0 Vertrauen

Ja sehe ich genauso. Mit einigem an Erfahrung hätte ja sofort ersichtlich sein müssen, dass das nicht sein kann und da was nicht stimmt.
 
Zurück
Oben