Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra
Ja ist es, aber natürlich geht beim Memory OC wahrscheinlich auch mehr beim 7800x3D und beim 9800x3D ebenso.
Schneller RAM hilft auf jeden Fall den Mangel an noch schnelleren 3D Cache zu kompensieren. Und wenn der 3D Cache in Spielen mal voll wird, wie hier in Skylines oder auch öfters mal in heftigen Endgame Saves bei Factorio ... oder auch in großen Städten in Star Citizen, etc
Dann kommt schneller RAM auch voll zum tragen und auch ein 7700x kann dann schon mal mit dem 7800x3D durchaus mithalten. Umgekehrt hat man aber dann eben vorher, also bis zu dem Punkt an dem der Cache überläuft in der Regel ähnliche geschwindigkeitsvorteile gegenüber der CPU ohne 3D Cache. Den der Vcache ist eben noch viel schneller als selbst der schnellste RAM am Markt.
Bei Spielen die dann kaum bis gar nicht vom Cache profitieren, macht der schnellere RAM dann übrigens auch keinen Unterschied. Ist ja logisch, oder?
Ergänzung ()
Könnte nett für Leute sein, die nur Star Citizen oder vielleicht auch Factario spielen. Der schnelle RAM kann ja tatsächlich mehr bringen als der Cache, WENN der Cache zu klein ist für die Menge an Daten.
Das kommt halt selten vor, ist damit noch mehr Nische als es die x3D CPUs besonders am Anfang waren. MSFS2024 mit viel Last wäre zum Beispiel interessant zu sehen.
Ergänzung ()
Die kleine Handvoll Titel bei denen er richtig gut ist, sind trotzdem interessant.
Ergänzung ()
Gibt es hier im Forum überhaupt jemanden der nicht selbst den Rechner zusammensteckt?
soweit bin ich bei Dir, nur will ich ein Game eben mit maximalen Detail zocken also muss die CPU auch mit diesen getestet werden
CP habt Ihr RT auch niedrig aber kein DLSS an wieso denn bitte nicht in RT Ultra und DLSS performance ?
Homeland wohl auch ohne RT obwohl es nicht viel GPU Leistung kostet laut eurem test vom 16.5., dafür habt Ihr auch auf DLSS verzichtet.
GoT das selbe Zusatzoptionen, meint wohl Schatten und Nebel ?!? wieso nicht mit und DLSS ultra
selbes bei DD. obwohl Ihr auch hier damals geschrieben habt. “Raytracing kostet in Dragon's Dogma 2 nicht allzu viel Performance”
daher nochmal die bitte alle Grafik Optionen die Bildqualität betreffend, die ein Game bietet auch auf MAXIMUM einzuschalten um zu sehen ob eine CPU in eben dem Game vor oder eben nachteile hat Ihr testet ja eh mit 720p 4090 und dann noch DLSS aber die grafik optionen sollten schon aktiv sein.
Gerade DD war im ersttest noch extrem schlecht optimiert, und Trieber und Spiel entwikeln sich weiter somit für mich durchaus denkbar das sich dieses inzwischen auch geändert hat.
“Raytracing geht in einigen Spielen zu Lasten der CPU, in Dragon's Dogma 2 ist dies aber nicht der Fall.”
Krass, Core Ultra wird ja regelrecht deklassiert! Dass ich sowas noch erlebe.
Gibt da praktisch keine Argumente mehr, Intel zu kaufen für einen High-End Gaming-PC.
Wie sich die Zeiten doch geändert haben, wenn man an Bulldozer vs Sandy Bridge etc. zurückdenkt.
Jetzt brauchen wir so eine Aufholjagd noch bei den Grafikkarten, gerne auch von Intel.
Genau und während ich tippe, befindet sich diese Anwendung gerade "quasi" im Leerlauf. Es entstehen keine Lasten, jedenfalls keine die messbar über dem typischen Idle Verbrauch lägen, deshalb ist das vielleicht nicht formal mit "Idle" gleichzusetzen, aber faktisch so, insofern hat er natürlich völlig recht.
Faktisch falsch. Selbst wenn du nur einen Buchstaben tippst, befindet sich der Rechner dann NICHT im idle, da er den Buchstaben als Info aufnimmt. Eigentlich sehr einfach und logisch. Es ist nicht messbar, na und? Es ist dennoch falsch im Sinne des Begriffes. Denn dieser besagt nicht, alles was ausserhalb der Messtoleranz ist. Dazu kann man es messen, nur muss man eben vermutlich in Milisekundengenauer Messung vorgehen. Hat man das Equipment nicht, auch egal. Die Definition ist glasklar und nur weil man meint, etwas nicht so genau nehmen zu wollen, kann man dann nicht bei anderen ihre Sichtweise als falsch ansehen. Vor allem wenn sie nachweislich falsch ist und nichts mit fantasie oder dergleichen zu tun hat. Das Beispiel ein Youtube-Video gucken zeigt es noch besser. Die "Last" für den Rechner ist kaum merkbar, dennoch ist sie da und genau darum gilt das nicht als idle.
Nein, die Definition ist klar. Wenn du eine andere etablieren willst, dann tu das. Solange aber die Definition so lautet wie heute, dann ist deine "definitonsfrage" eigentlich nur deine Meinung, mehr nicht. Denn es hat nichts mit der geltenden Praxis des Begriffes zu tun.
Man kann es auch Minimal-Last nennen. Wäre vielleicht ein Kompromiss.^^
Nein, weil auf niedrigsten details in 720p die maximale leistungsfähigkeit der CPU getestet wird. (bzw eig müsste man sogar in noch niedrigerer auflösung benchen wobei ich das für sinnlos halte)
bei 720p ultra könnte die grafikkarte dann wider begrenzen und der CPU Test währe aussagskraftlos. eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.
Wenn du einen 9800x3d kaufst und in cyberpunk mit den settings in denen du spielst keine 190fps avg has begrenzt deine Grafikkarte. weil laut CPU test auf computerbase ersichtlich ist das die cpu bis 190 fps liefern kann. (ein paar fps sind abzuziehen wegen cpu evtl cpu heavy grafik settings/physik, was aber nichts daran ändert das der 9800x3d trotzdem schneller ist als alle anderen cpu's dann)
bei 720p ultra könnte die grafikkarte dann wider begrenzen und der CPU Test währe aussagskraftlos. eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.
eine cpu die in 720p min Details mehr fps liefert als die anderen tut das auch in 720p max Details, bzw solange bis die Grafikkarte der begrenzende faktor wird.
Das ist schlicht falsch, viele Settings betreffen auch die CPU Performance, weshalb immer mit max Settings getestet werden muss.
Gerade auch mit RT zeigen sich die Stärken bestimmter CPUs erst, wenn auch wirklich mit max Settings getestet wird, wo dann andere CPUs stärker einbrechen.
Zwei CPUs, die auf low settings 150FPS und 155FPS erreichen können auf Max Settings dann z.B. bei 90FPS zu 120FPS stehen.
Die 190 FPS average in Cyberpunk können mit dem Low Preset und ohne RT schon >300 FPS sein und dabei ist man beide Male CPU limitiert.
Das einzige, was wirklich zu 100% sicher nur die GPU betrifft, ist die Auflösung und nur die sollte man runter schrauben. Wenn durch die max Settings dann trotzdem noch ein GPU Limit da ist, wird eben DLSS genutzt, damit kommt man dann bis auf 360p runter.
Nein, weil auf niedrigsten details in 720p die maximale leistungsfähigkeit der CPU getestet wird. (bzw eig müsste man sogar in noch niedrigerer auflösung benchen wobei ich das für sinnlos halte)
Um es perfekt zu machen, müsste man sogar eine virtuelle Grafikkarte oder einen speziellen Treiber nutzen, so das überhaupt keine Bilder gerendert werden und die CPU instant ein "Ok, bin fertig schick mal die nächsten Daten" bekommt. Damit würde man die Grafikkarte wirklich komplett mit aus der Rechnung nehmen. Aber da wird es dann echt albern. 720p ist aktuell noch ein guter Kompromiss.
das sehe ich anders, CP hat RT und wenn man das eben auf Ultra stellt und dafür dann eben DLSS aktiviert hat man wieder kein GPU Limit da ja nur noch 240p ist und selbst wenn ein GPU limit mit DLSS und RT max in 240p herscht wird auch die 5090 in 720 eines haben ohne DLSS.
gerade auch DD war anfang des Jahres klar besser auf einem 14900k wie auf 3d und selbst zen3/4 mit 3 d hatte nur 13% unterschied nun nach nicht mal 1 Jahr soll das komplett aufgehoben sein und aufeinmal 7800x3d 18% schneller wie der 14900k und bei den lows hat er einen 12% rückstand in einen 17% vorsprung geändert ? gerade das Game hat RT und gibt es auch auf der PS5 und Xbox mit schwacher RT hardware, hier macht es also durchaus sin für den entwikler eben die RT effekte auf die CPU abarbeiten zu lassen, was damals noch garnicht der Fall war. https://www.computerbase.de/artikel...hmarks_in_full_hd_wqhd_und_uhd_mit_raytracing
in diablo 4 hab ich mit meiner 4090 in 720p alles max +raytracing 180 fps bei 100% grafikkarten auslastung. wie benche ich da jetzt meinen ryzen 5900x der nicht im ansatz ausgelastet ist?
@xarfei Wenn dann 16x9, da das Seitenverhältnis Einfluss auf die CPU hat.
Aber das geht halt nirgends einzustellen, daher ist 360p das Minimum, es sei denn ein Spiel erlaubt bei 720p auch DLSS Ultra Performance, dann wären es 240p.
Also die Kiste ist bei mir im Idle erheblich kühler, als noch der 7950X3D, oder auch 7800X3D.
Phänomenale Werte:
Ich habe allerdings noch kein EXPO, oder XMP geladen. Damit dürften die Werte ca. 2°C im Schnitt nach oben gehen.
OOTB darf er mit 5215Mhz laufen und damit exakt so schnell wie der VCache CCD des 7950X3D. Der 7800X3D darf ja "nur" mit 5050Mhz laufen.
Im CPU-Z Benchmark ist er mit 5215Mhz jetzt so schnell im Single Core, wie zuvor der 7950X3D auf dem Frequenz Kern mit 5.75Ghz. Er kommt jetzt auf 800 Punkte.
Zum Vergleich. Der 7950X3D auf dem vergleichbaren VCache CCD kommt mit gleicher Frequenz auf 720 Punkte.
Mal gucken wie viel Bock der auf XMP hat mit 1:1 Teiler und PBO.