Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Atma schrieb:
Muss seit Turing ganz klar verneint werden. Die H.264 und H.265 Encodierung per GPU steht der massiv langsameren CPU Encodierung in so gut wie nichts nach. Wenn überhaupt sind minimale Unterschiede im Direktvergleich sichtbar, bei einem Blindtest definitiv nicht.

Falsch. 8 bit CPU hat die gleiche qualität wie 10 bit GPU. Bei sehr feinen Farbverläufen. z.B. Nebel verkackt GPU das immer wieder mal und es kommt zu sehr hässlichen Tonwertabrissen (color banding). Wenn dann dazu noch CPU um 20% kleiner ist bei gleicher qualität bleib ich bei CPU
 
  • Gefällt mir
Reaktionen: MegaManX4, Celinna, crackett und 2 andere
kicos018 schrieb:
"Ohne Spiderman und Gotham Knights in 4K sähe es für Intel sehr eng aus."

Die schlechtesten Vergleichswerte sind die, die man beliebig drehen kann.


4K in nem CPU Test 😅 Dachte eben erst du kannst keine Graphen lesen. Wenn interessiert das GPU Limit hier.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und ben12345
DaHans schrieb:
Passend gibts den 5800x3D gerade im Mindstar für 349.- :D
Hmm...den habe ich noch letzte Woche regulär in Mindfactory für 349€ bekommen...
Steigen die Preise bald wieder bzw ist das der Abverkauf?
Pixelhomie schrieb:
Wozu? Wer sich eine RTX 4090 samt passender CPU in den Rechner packt sollte das wohl kaum interessieren.
Ernsthaft? Die 4090 ist deutlich effizienter als jede Karte auf dem Markt. Mit <200W hat sie mehr Leistung als eine 3090 mit 350W.
Sobald ich mal eine 4090FE bekomme, wird ich den PC mit einem 5800X3D so trimmen, das der nur noch 350-400W verbraucht.

Es geht mir aber nicht um den Stromverbrauch, sondern die Abwärme...
Ich glaube kaum, das man viele Stunden am Tag einen PC mit 600W 4090 und 300W 13900k ohne Klimaanlage ertragen kann...
 
  • Gefällt mir
Reaktionen: simosh, ottocolore, Celinna und 4 andere
Momentan würde ich auch eher Raptorlake empfehlen als die AM5 Plattform, ja die ist EOL aber die Boards gibts halbwegs bezahlbar der 13600k ist eine Top CPU und moentan ist AMD zu teuer dafür das sie nicht vorne liegen. Der Vorteil von langer aufrüstbarkeit ist nicht von der Hand zu weisen, habe im zweit PC auch ein x370 Board am werkeln nun mit dem 3900X. DIe Möglichkeit verleitet aber natürlich anschaffungen zu tätigen die man ansonsten vielleicht gelassen hätte (nicht ausgegeben ist auch irgendwie verdient/gespart). Fest steht AMD muss schnell eine aufgebohrte Zen4 Version auflegen, zumindest dürfen sie nicht an ihrer eigenen Vorgängergeneration scheitern, momentan sparen die meisten, da wollen die die müssen was günstiges oder die verbliebenen Hardcore Enthusiasten das "beste" und nicht nur GUT.
 
  • Gefällt mir
Reaktionen: Celinna und ben12345
  • Gefällt mir
Reaktionen: BernmanHH
Vielleicht sollte man noch angeben in welchem Radius un ein solches "High-End" Systems der glühende Abwärmestrahl noch tödlich ist... ;)
 
Würdet ihr lieber den kommenden 7800x3D gönnen und evtl. mal mit gleichen Mainboard upgraden...
Oder Intel und innerhalb gleichen Interwall dann direkt wieder mit neuen Mainboard?
(Nur zum zocken. Aber bitte immer 120+ FPS bei WQHD)
 
  • Gefällt mir
Reaktionen: Viper816 und supermanlovers
Taxxor schrieb:
Der Stacked V Cache ist doch nichts anderes als mehr L3 anzubieten.
Ohne Stacking geht das auch ab Werk nicht, oder willst du die Chiplets nochmal 66% größer machen für die 64MB die ja irgendwo hin müssen?

Zen5 dürfte mit V-Cache ab Werk kommen, vermute ich.
Gemunkelt wird ja auch, dass dieser gleichzeitig einen Interconnect zwischen den CCDs darstellen soll.
Ich meine auch eher ein bisschen mehr statt MASSIG mehr Cache :D

Hauptsache die dicken Brummer kriegen auch ihren Cache. Schmoll
 
StefanArbe schrieb:
Erst mit Cache werden die AM5 prozis interessant. aber der aufpreis wird sicher deftig sein. also im endeffekt könnte die 7000er CPU generation schon für die tonne sein.
Nicht ganz. Denn auf AM5 kommt noch Zen5 und Zen5X3D.
 
Danke für den Test! Heißt für mich, alles richtig gemacht mit der 3090er. Die reicht um die neue Gen zu überspringen und dann wird in 3-4 Jahren wieder neu aufgerüstet! Man will ja auch einen Sprung erleben :-)
 
  • Gefällt mir
Reaktionen: doZ
Danke für den Test!!

Trotz des deutlichen Vorsprungs der Intel-CPU, ist ein Upgrade auf Intel eher kritisch zu bewerten:

  • Sockel 1700 ist am Ende (keine neuen CPUs bis auf den 13900KS)
  • AM5 hingegen reicht noch für: Zen4-3D, Zen5, Zen5-3D
 
Danke für den Test.
Also würde dank 4090 der Wechsel von 5800x auf 13900k wohl wirklich Sinn machen.
Dann werde ich mich wohl gedanklich schon Mal auf einen 7800x3d einstellen :)
 
theGucky schrieb:
Ich glaube kaum, das man viele Stunden am Tag einen PC mit 600W 4090 und 300W 13900k ohne Klimaanlage ertragen kann...
Da sich alles nur in deinem Kopf abspielt, da kannst du viel ertragen.

Eine 4090 verbraucht weder 600W noch produziert sie 600W Abwärme.
Und ein 13900K verbraucht auch keine 300W und produziert auch keine 300W Abwärme.

Kuckst du hier:
https://www.igorslab.de/intel-core-...ine-3-4-krone-fuer-den-letzten-monolithen/11/
1667393950609.png

und hier:
https://www.igorslab.de/nvidia-gefo...trotzende-monolith-der-aus-der-kaelte-kam/10/
1667394088149.png
 
  • Gefällt mir
Reaktionen: simosh, tritratrullala und Zwirbelkatz
Warum nutzt ihr den Artikel nicht um das CPP Thema aufzugreifen?
 
  • Gefällt mir
Reaktionen: simosh
Dass mein Schwanz kleiner ist weiß ich selber. Da muss der i5 halt mehr ackern. Interessanter wär das Ganze für mich noch mit Preis und Stromverbrauch.
 
  • Gefällt mir
Reaktionen: MegaManX4
Also was Intel hier noch rausquetscht ist schon sehr gut. VErmutlich wird die X3D Reihe dann knapp vorne liegen und effizienter werdenm aber auch preislich neue Rekorde aufstellen. Ich rechne mit einem 7800x3d nicht unter 550€ eher im 600€ Berreich.
 
wern001 schrieb:
Falsch. 8 bit CPU hat die gleiche qualität wie 10 bit GPU. Bei sehr feinen Farbverläufen. z.B. Nebel verkackt GPU das immer wieder mal und es kommt zu sehr hässlichen Tonwertabrissen (color banding). Wenn dann dazu noch CPU um 20% kleiner ist bei gleicher qualität bleib ich bei CPU
Hab es doch selber getestet. 2-3 Filme einmal bei gleichen Settings per CPU und einmal per GPU encodiert. Fazit: Sichtbarer Unterschied nicht vorhanden und die per GPU encodierten Filme waren vielleicht 400-800 MB größer als die per CPU encodierten. Bei einer typischen Dateigröße von 12-16 GB interessieren mich die paar MB in Zeiten von 18-20 TB HDDs genau null.
 
Zurück
Oben