Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

Apocalypse schrieb:
Ja ist es, aber natürlich geht beim Memory OC wahrscheinlich auch mehr beim 7800x3D und beim 9800x3D ebenso.

Schneller RAM hilft auf jeden Fall den Mangel an noch schnelleren 3D Cache zu kompensieren. Und wenn der 3D Cache in Spielen mal voll wird, wie hier in Skylines oder auch öfters mal in heftigen Endgame Saves bei Factorio ... oder auch in großen Städten in Star Citizen, etc

Dann kommt schneller RAM auch voll zum tragen und auch ein 7700x kann dann schon mal mit dem 7800x3D durchaus mithalten. Umgekehrt hat man aber dann eben vorher, also bis zu dem Punkt an dem der Cache überläuft in der Regel ähnliche geschwindigkeitsvorteile gegenüber der CPU ohne 3D Cache. Den der Vcache ist eben noch viel schneller als selbst der schnellste RAM am Markt.

Bei Spielen die dann kaum bis gar nicht vom Cache profitieren, macht der schnellere RAM dann übrigens auch keinen Unterschied. Ist ja logisch, oder?
Ergänzung ()


Könnte nett für Leute sein, die nur Star Citizen oder vielleicht auch Factario spielen. Der schnelle RAM kann ja tatsächlich mehr bringen als der Cache, WENN der Cache zu klein ist für die Menge an Daten.

Das kommt halt selten vor, ist damit noch mehr Nische als es die x3D CPUs besonders am Anfang waren. MSFS2024 mit viel Last wäre zum Beispiel interessant zu sehen.
Ergänzung ()


Die kleine Handvoll Titel bei denen er richtig gut ist, sind trotzdem interessant.
Ergänzung ()


Gibt es hier im Forum überhaupt jemanden der nicht selbst den Rechner zusammensteckt?
Ja stimmt in tinys wonderland:)
 
Volker schrieb:
Mit einer RTX 5090 entsprechen die heutigen 720p-Tests dann denen in 1080p oder 1440p.
soweit bin ich bei Dir, nur will ich ein Game eben mit maximalen Detail zocken also muss die CPU auch mit diesen getestet werden
CP habt Ihr RT auch niedrig aber kein DLSS an wieso denn bitte nicht in RT Ultra und DLSS performance ?
Homeland wohl auch ohne RT obwohl es nicht viel GPU Leistung kostet laut eurem test vom 16.5., dafür habt Ihr auch auf DLSS verzichtet.
GoT das selbe Zusatzoptionen, meint wohl Schatten und Nebel ?!? wieso nicht mit und DLSS ultra
selbes bei DD. obwohl Ihr auch hier damals geschrieben habt. “Raytracing kostet in Dragon's Dogma 2 nicht allzu viel Performance”

daher nochmal die bitte alle Grafik Optionen die Bildqualität betreffend, die ein Game bietet auch auf MAXIMUM einzuschalten um zu sehen ob eine CPU in eben dem Game vor oder eben nachteile hat Ihr testet ja eh mit 720p 4090 und dann noch DLSS aber die grafik optionen sollten schon aktiv sein.
Gerade DD war im ersttest noch extrem schlecht optimiert, und Trieber und Spiel entwikeln sich weiter somit für mich durchaus denkbar das sich dieses inzwischen auch geändert hat.
“Raytracing geht in einigen Spielen zu Lasten der CPU, in Dragon's Dogma 2 ist dies aber nicht der Fall.”
 
Krass, Core Ultra wird ja regelrecht deklassiert! Dass ich sowas noch erlebe.
Gibt da praktisch keine Argumente mehr, Intel zu kaufen für einen High-End Gaming-PC.

Wie sich die Zeiten doch geändert haben, wenn man an Bulldozer vs Sandy Bridge etc. zurückdenkt.

Jetzt brauchen wir so eine Aufholjagd noch bei den Grafikkarten, gerne auch von Intel.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und Lonex88
@Quidproquo77
Genau und während ich tippe, befindet sich diese Anwendung gerade "quasi" im Leerlauf. Es entstehen keine Lasten, jedenfalls keine die messbar über dem typischen Idle Verbrauch lägen, deshalb ist das vielleicht nicht formal mit "Idle" gleichzusetzen, aber faktisch so, insofern hat er natürlich völlig recht.
Faktisch falsch. Selbst wenn du nur einen Buchstaben tippst, befindet sich der Rechner dann NICHT im idle, da er den Buchstaben als Info aufnimmt. Eigentlich sehr einfach und logisch. Es ist nicht messbar, na und? Es ist dennoch falsch im Sinne des Begriffes. Denn dieser besagt nicht, alles was ausserhalb der Messtoleranz ist. Dazu kann man es messen, nur muss man eben vermutlich in Milisekundengenauer Messung vorgehen. Hat man das Equipment nicht, auch egal. Die Definition ist glasklar und nur weil man meint, etwas nicht so genau nehmen zu wollen, kann man dann nicht bei anderen ihre Sichtweise als falsch ansehen. Vor allem wenn sie nachweislich falsch ist und nichts mit fantasie oder dergleichen zu tun hat. Das Beispiel ein Youtube-Video gucken zeigt es noch besser. Die "Last" für den Rechner ist kaum merkbar, dennoch ist sie da und genau darum gilt das nicht als idle.
Das ist eine reine Definitionsfrage.
Nein, die Definition ist klar. Wenn du eine andere etablieren willst, dann tu das. Solange aber die Definition so lautet wie heute, dann ist deine "definitonsfrage" eigentlich nur deine Meinung, mehr nicht. Denn es hat nichts mit der geltenden Praxis des Begriffes zu tun.
Man kann es auch Minimal-Last nennen. Wäre vielleicht ein Kompromiss.^^
Richtig, da wären wir uns dann einig!
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Icke-ffm schrieb:
soweit bin ich bei Dir, nur will ich ein Game eben mit maximalen Detail zocken also muss die CPU auch mit diesen getestet werden
Nein, weil auf niedrigsten details in 720p die maximale leistungsfähigkeit der CPU getestet wird. (bzw eig müsste man sogar in noch niedrigerer auflösung benchen wobei ich das für sinnlos halte)
bei 720p ultra könnte die grafikkarte dann wider begrenzen und der CPU Test währe aussagskraftlos. eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.
Wenn du einen 9800x3d kaufst und in cyberpunk mit den settings in denen du spielst keine 190fps avg has begrenzt deine Grafikkarte. weil laut CPU test auf computerbase ersichtlich ist das die cpu bis 190 fps liefern kann. (ein paar fps sind abzuziehen wegen cpu evtl cpu heavy grafik settings/physik, was aber nichts daran ändert das der 9800x3d trotzdem schneller ist als alle anderen cpu's dann)
 
Apocalypse schrieb:
Gibt es hier im Forum überhaupt jemanden der nicht selbst den Rechner zusammensteckt?
Aber hallo, gibt genug Leute die sich für nen Fertig Rechner beraten lassen und bestimmt hier im Forum hängen bleiben.
 
  • Gefällt mir
Reaktionen: Apocalypse
xarfei schrieb:
bei 720p ultra könnte die grafikkarte dann wider begrenzen und der CPU Test währe aussagskraftlos. eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.

das stimmt nicht immer, besonders wenn RT ins spiel kommt, kann es ganz anders aussehen. schau dir mal den cpu Test von Pcgh an Dragon Age Veilguard. https://www.pcgameshardware.de/Drag.../Test-Review-Benchmarks-Raytracing-1458850/4/
Das ist schon brutal bei diesem spiel
 
xarfei schrieb:
eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.
Das ist schlicht falsch, viele Settings betreffen auch die CPU Performance, weshalb immer mit max Settings getestet werden muss.
Gerade auch mit RT zeigen sich die Stärken bestimmter CPUs erst, wenn auch wirklich mit max Settings getestet wird, wo dann andere CPUs stärker einbrechen.
Zwei CPUs, die auf low settings 150FPS und 155FPS erreichen können auf Max Settings dann z.B. bei 90FPS zu 120FPS stehen.
Die 190 FPS average in Cyberpunk können mit dem Low Preset und ohne RT schon >300 FPS sein und dabei ist man beide Male CPU limitiert.


Das einzige, was wirklich zu 100% sicher nur die GPU betrifft, ist die Auflösung und nur die sollte man runter schrauben. Wenn durch die max Settings dann trotzdem noch ein GPU Limit da ist, wird eben DLSS genutzt, damit kommt man dann bis auf 360p runter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: srz54, Quidproquo77, ElliotAlderson und 4 andere
xarfei schrieb:
Nein, weil auf niedrigsten details in 720p die maximale leistungsfähigkeit der CPU getestet wird. (bzw eig müsste man sogar in noch niedrigerer auflösung benchen wobei ich das für sinnlos halte)
Um es perfekt zu machen, müsste man sogar eine virtuelle Grafikkarte oder einen speziellen Treiber nutzen, so das überhaupt keine Bilder gerendert werden und die CPU instant ein "Ok, bin fertig schick mal die nächsten Daten" bekommt. Damit würde man die Grafikkarte wirklich komplett mit aus der Rechnung nehmen. Aber da wird es dann echt albern. 720p ist aktuell noch ein guter Kompromiss.
 
xarfei schrieb:
bei 720p ultra könnte die grafikkarte dann wider begrenzen und der CPU Test währe aussagskraftlos.
das sehe ich anders, CP hat RT und wenn man das eben auf Ultra stellt und dafür dann eben DLSS aktiviert hat man wieder kein GPU Limit da ja nur noch 240p ist und selbst wenn ein GPU limit mit DLSS und RT max in 240p herscht wird auch die 5090 in 720 eines haben ohne DLSS.
gerade auch DD war anfang des Jahres klar besser auf einem 14900k wie auf 3d und selbst zen3/4 mit 3 d hatte nur 13% unterschied nun nach nicht mal 1 Jahr soll das komplett aufgehoben sein und aufeinmal 7800x3d 18% schneller wie der 14900k und bei den lows hat er einen 12% rückstand in einen 17% vorsprung geändert ? gerade das Game hat RT und gibt es auch auf der PS5 und Xbox mit schwacher RT hardware, hier macht es also durchaus sin für den entwikler eben die RT effekte auf die CPU abarbeiten zu lassen, was damals noch garnicht der Fall war.
https://www.computerbase.de/artikel...hmarks_in_full_hd_wqhd_und_uhd_mit_raytracing
 
in diablo 4 hab ich mit meiner 4090 in 720p alles max +raytracing 180 fps bei 100% grafikkarten auslastung. wie benche ich da jetzt meinen ryzen 5900x der nicht im ansatz ausgelastet ist?
 
@xarfei Wenn dann 16x9, da das Seitenverhältnis Einfluss auf die CPU hat.
Aber das geht halt nirgends einzustellen, daher ist 360p das Minimum, es sei denn ein Spiel erlaubt bei 720p auch DLSS Ultra Performance, dann wären es 240p.
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Apocalypse und Ciraxis
Für die Leute die sich Flight Simulator Tests gewünscht haben (Quelle)

1731081989046.png
 
  • Gefällt mir
Reaktionen: danyundsahne, Gee858eeG, Quidproquo77 und 7 andere
Auweia... Für die die sich wundern, Arrow Lake wurde auch getestet... taucht nur erst so weit unten auf, dass kein Platz mehr auf dem Screenshot war? :freak:
 
  • Gefällt mir
Reaktionen: ArrakisSand, alkaAdeluxx und 3125b
Hi

Stimmt.

Ebenso der 7950x3D mit 7000er ....doller fail...

DER sollte doch schneller mit dem FS2024 sein als der 7800X3D.

Einfach alles mit 6000er Ram und gut.....wäre zu einfach gewesen. :freak:

Gruß Bernd
 
iPat1337 schrieb:
Was sagt das eigentlich über meine Person wenn ich gerne Upgraden würde, aber der Sinn fehlt, also versucht man etwas zu erfinden? :D

Dass Du neugierierig bist und Abwechslung brauchst.

iPat1337 schrieb:
Das basteln am Rechner ist doch eher nervig :D

Kommt drauf an...

Etwas neues mit dem geilsten Scheiß zu bauen macht mir immernoch jede Menge Spaß.

Wartungsarbeiten sind da weit weniger Spannend.
 
Also die Kiste ist bei mir im Idle erheblich kühler, als noch der 7950X3D, oder auch 7800X3D.

Phänomenale Werte:

1731083894789.png


Ich habe allerdings noch kein EXPO, oder XMP geladen. Damit dürften die Werte ca. 2°C im Schnitt nach oben gehen.


1731084316254.png


OOTB darf er mit 5215Mhz laufen und damit exakt so schnell wie der VCache CCD des 7950X3D. Der 7800X3D darf ja "nur" mit 5050Mhz laufen.

Im CPU-Z Benchmark ist er mit 5215Mhz jetzt so schnell im Single Core, wie zuvor der 7950X3D auf dem Frequenz Kern mit 5.75Ghz. Er kommt jetzt auf 800 Punkte.

Zum Vergleich. Der 7950X3D auf dem vergleichbaren VCache CCD kommt mit gleicher Frequenz auf 720 Punkte.

Mal gucken wie viel Bock der auf XMP hat mit 1:1 Teiler und PBO.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, alkaAdeluxx, Sturmwind80 und 5 andere
Zurück
Oben