News Hersteller-Benchmarks: Ryzen 7950X3D angeblich 6% vor Core i9-13900K in Spielen

Azghul0815 schrieb:
Hab nun nicht alle Seiten gelesen, aber je nachdem wie der 7800x3d performed, muss man sich mit dem 5800x3d keine Sorgen machen. Das Upgrade lohnt ja P/L kein bisschen. Dann gönne ich mir wohl doch noch noch den 5800x3d und es gibt in 2-3 Jahren ein neues Build mit 5090 :)
Wir sind aktuell in der lukrativen Lage, dass wir bei CPUs für "das Beste", eine geile Auswahl haben!
Für meinen Schwiegervater gerade einen 13600K für Anno 1800 only verbaut und für den F1 2022 närrischen Onkel einen 5800x3d.
Ich hätte 2017 nie gedacht, dass AMD zurück kommt. Aber es tut dem Markt einfach gut.
 
  • Gefällt mir
Reaktionen: Azghul0815, Öcher Tivoli und darulaster
Bin auf die Tests gespannt ob der mehr an Stromverbrauch im Vergleich zum 7900 die Mehrleistung in Spielen etz rechtfertigt, den normalen X lang ich nicht an.
 
drago-museweni schrieb:
mehr an Stromverbrauch im Vergleich zum 7900
Woher weißt du denn, dass er mehr verbrauchen wird als ein 7900?
Der 7900 liegt bei ca 85-90W, in dem Bereich erwarte ich auch den 7950X3D
 
Ich bin gespannt wie groß der Unterschied zwischen 7950X3D und 7900X3D sein wird beim Gaming. Ich vermute Mal nicht sehr groß.

Bei den Non 3D Modellen gab es auch immer einen Wechsel zwischen 7950X 7900X und 7700X. Je nach Spiel war das immer unterschiedlich wer absolut schneller war. Einzig der 7600X war immer auf dem letzten Platz, obgleich auch hier die Performance sehr hoch ist.
 
Taxxor schrieb:
CapFrameX wird schon mal vorsorglich eine Funktion bekommen mit der man per Hotkey das aktuell laufende Spiel zwischen Default, CCD0 oder CCD1 wechseln lassen kann ^^
Man kann die Affinität auf eine beliebiges CCD legen. Einfach per Hotkey die States durchtoggeln...

1677313325230.png
 
  • Gefällt mir
Reaktionen: ActionNews
t3chn0 schrieb:
Einzig der 7600X war immer auf dem letzten Platz, obgleich auch hier die Performance sehr hoch ist.
Das stimmt nicht, er lag bei einigen Spielen über dem 7900x
 
Taxxor schrieb:
Woher weißt du denn, dass er mehr verbrauchen wird als ein 7900?
Umsonst werden beide nicht eine Unterschiedliche TDP haben vermute ich jetzt mal. 65W vs. 125W was so berichtet wurde sollte schon einen Unterschied geben.
 
Tja, ich weiß nicht. Ich hätte da ein wenig mehr erwartet. Wenn die Folien kein fake sind. Geht es da nur mir so? Der 5800X3D hat das damalige obere Ende des Intel-Portfolios (was ja nun mal den 12900KS war) in Games recht mühelos und nonchalant schön nass gemacht. Eines ist damit wohl jetzt schon klar - wenn der 7800X3D mit weniger Takt als der 7950X3D auf dem gecachten CCD antritt wird AMD das wohl nicht wiederholen können. Möglicherweise ist genau das der Grund für den späteren Auftritt des 7800X3D. Prozesse und Software (AGESA) verbessern, das letzte Quäntchen Takt rausquetschen. Muss man dann mal vom Gesichtspunkt Energieeffizienz begutachten - aber wie ich CB kenne wird das sicher ausgiebig untersucht und bewertet.
 
@der Unzensierte dee 5800x3d hat einige Spiele wo er dominiert, andere kommt er knapp nicht an Intel vorbei.
Denke das wird hier auch so ablaufen.
Wir sehen es am Montag.
 
danyundsahne schrieb:
Und am Ende sind die meisten Leute immer noch hart GPU limitiert und es ist absolut wurscht welche CPU (ob 13900k oder 7950X3D oder 12600k oder 5600X, oder oder oder) werkelt, wenn die lahme RTX3060 oder RX6600XT so gut wie alles limitiert.
jedes Spiel reagiert anders auf die CPU/GPU klar irgendwann limitiert die GPU aber wenn ich mir den test anschaue.
https://www.computerbase.de/2022-04/amd-ryzen-7-5800x3d-test/2/
hat der x3d in Gears Tactics 720p 8% Rückstand in FHD 28% Vorsprung der in UHD dann wieder 0 ist
oder Valorant in 720p liegt er 6% vor dem KS in FHD noch 4% in UHD aber ist dann aber der Ks 10% in front
und der test ist mit eine 3080-FE welche schon früh limitiert

ich finde das sind schon Deutliche Unterschiede zumal es noch etliche games gibt wo eine 4090 selbst in UHD noch CPU limitiert ist
 
  • Gefällt mir
Reaktionen: danyundsahne
Northstar2710 schrieb:
Das stimmt nicht, er lag bei einigen Spielen über dem 7900x
Wat, wo? Also beim 7700X ist mir das durchaus bewusst, da dieser hoch taktet und nur ein CCD besitzt, welches in manchen Spielen zu besserer Performance führt. Der 7600X taktet doch schon deutlich niedriger. Hast Du mal ein Beispiel?

Also ich kenne da wirklich kein einziges Beispiel wo der 7600X vor dem 7900X beim Gaming lag.
 
Taurus104 schrieb:
Dann spiele mal Escape From Tarkov, da reicht eine 6600XT aber es limitiert selbst ein 13900k und wird dort bereits von einem 5800X3D überholt und hier geht es um 20-30 FPS mehr je nach Map. Für Leute deren Maingame EFT ist (nur als ein Bsp, ein anderes wäre MS Flight Simulator 2020) ist das nicht lächerlich sondern wichtig was die neuen 7000X3D hier im Vergleich leisten. Man sollte nicht immer ausschließlich pauschalisieren.
Ist mir bewusst, und deswegen schrieb ich "die meisten Leute" = nicht alle
und "fast alles" = ebenso nicht alle. ;)

Es gibt einige Games, die viel CPU Leistung brauchen. Schon klar. Aber in summer aller Games, sind die meisten eben GPU limitiert. Nach wie vor ist das so.

Die breite Masse da draußen juckt das nicht, hier in den Hardware Foren sind meist auch extrem viele Enthusiasten angemeldet (man sieht ja wie viele Prozentual hier eine 4090 haben oder selbst "nur" 1000€+ GPUs) und entsprechend wird immer auch nur das Extreme diskutiert, was man zB in 4k120hz an HW braucht und welche CPU hier die letzten 5-10% Leistung rausquetschen mit wahnwitzigem (+ sauteurem) DDR5-7200+ RAM, etc. pp. Weil anders können sie ja keine Games genießen....

Und wer braucht das ? Richtig, nur etwa die obersten 5% der Elite, die sich das leisten können (und wollen).

Und zum Glück gibt es ja diese wenigen Spieleausnahmen (seien sie schlecht optimiert oder wirklich einfach so fordernd), sonst gäbe es dieses "Wettrüsten" unter Enthusiasten ja nicht.
Und genau das wird hier in den Foren lang und breit diskutiert. Immer wieder. ;)

Und das ist auch ok so, dahe er schrieb ich ja ich finde es amüsant :)

Der Rest spielt zufrieden mit Mittelklasse HW seine Games brav durch und ist glücklich.
So wie ich :D
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Taxxor schrieb:
Ist auch das erste, woran ich gedacht habe als ich hier 6% Schnitt gelesen habe, bei der CES war man auf den Folien noch bei 19,5% Schnitt
Anhang anzeigen 1329126
Sollte der 3D wirklich im Schnitt nur 6% schneller sein bei diesem Vergleich mit 6000 XMP bei beiden, ist er real langsamer als ein 13900k mit RAM OC. Beim 3D gibt es ja kein Potenzial für Scaling mehr.

Wirklich wundern tut es mich nicht, AMD ist ja bei RDNA3 ähnlich vorgegangen. Erst das Blaue vom Himmel versprechen und dann bei späteren Folien etwas zurückrudern. Bei RDNA3 waren selbst die späteren, konservativeren Folien noch zu großzügig, ich denke jedoch nicht, dass das hier der Fall sein wird.

Dieser "Leak" wird korrekt sein, denn ansonsten hätte CB zum jetzigen Zeitpunkt nicht mehr darüber berichtet. Die CPU haben sie ja schon und das ist ein Muster, das sich so durch CBs Berichterstattung zu Leaks zieht. Die Existenz dieses Artikels ist quasi die Bestätigung.
 
Taurus104 schrieb:
Dann spiele mal Escape From Tarkov, da reicht eine 6600XT aber es limitiert selbst ein 13900k und wird dort bereits von einem 5800X3D überholt und hier geht es um 20-30 FPS mehr je nach Map.
Aber sicher doch... ^^ Das ist übrigens die am stärksten fordernde Szene, die ich finden konnte.

1677317056177.png
 
  • Gefällt mir
Reaktionen: Pater_Erminold, H6-Mobs, gesperrter_User und 3 andere
Icke-ffm schrieb:
jedes Spiel reagiert anders auf die CPU/GPU klar irgendwann limitiert die GPU aber wenn ich mir den test anschaue.
https://www.computerbase.de/2022-04/amd-ryzen-7-5800x3d-test/2/
hat der x3d in Gears Tactics 720p 8% Rückstand in FHD 28% Vorsprung der in UHD dann wieder 0 ist
oder Valorant in 720p liegt er 6% vor dem KS in FHD noch 4% in UHD aber ist dann aber der Ks 10% in front
und der test ist mit eine 3080-FE welche schon früh limitiert

ich finde das sind schon Deutliche Unterschiede zumal es noch etliche games gibt wo eine 4090 selbst in UHD noch CPU limitiert ist
Korrekt, aber um wieder auf das GPU Limit zurückzukommen welches ich anspreche:

CB Zitat aus deinem verlinkten Test:
Diese Auflösungen sind für einen CPU-Test weniger wichtig, doch zeigen sie, was bei den meisten Kunden heute daheim dann ankommt – wenn überhaupt, denn nicht jeder hat eine GeForce RTX 3080 Founders Edition.

"
Wenn überhaupt, denn nicht jeder hat eine RTX3080"...sagt schon alles.
Auch CB weiß dass der allermeisten keine so starken GPU haben. Und selbst eine 3080 ist im Vergleich zu einer 4090 eher schwach ;)

Also kommen wir doch wieder zu dem Punkt, dass die allermeisten sich um CPU Leistung keine sorgen machen müssten, die GPU limitiert wohl sowieso.

Aber das kommt hier in Foren immer so rüber als bräuchte man für seine 3060 oder kleiner immer die schnellste CPU. "Nimm einen Intel, der ist 10-20% schneller im CPU Limit als ein AMD,..." bla bla :D

Und was hat er dann damit gewonnen? Er fühlt sich damit besser, immerhin :D
Und hat Intel mal wieder Geld in den Rachen geworfen. ;)
 
  • Gefällt mir
Reaktionen: Hal14 und Icke-ffm
Morpheus101 schrieb:
Der Fehler von der Firma zu kaufen die über Jahre alle abzockt. Bei vergleichbarer Leistung zum vergleichbaren Preis würde ich meine Kaufentscheidung immer so treffen, dass ich mir nicht selbst wieder in den Finger schneide.
Ich finde diese Argumentation immer lustig.
Hätte Intel "über die Jahre" immer nur Vollgas gegeben, gäbe es AMD heute wahrscheinlich nicht mehr.
Hätte AMD "über die Jahre" es mal geschafft, trotz Intels geringer Innovationskraft früher konkurrenzfähige Produkte auf den Markt zu bringen, hätten wir heute einen noch weiter entwickelten Markt.
 
  • Gefällt mir
Reaktionen: TechFunk und HyperSnap
danyundsahne schrieb:
Und hat Intel mal wieder Geld in den Rachen geworfen. ;)
Find Ich die leute aber lukrativer die halbjährlich AMD Geld in den rachen werfen.
Als Unternehmen wünscht man sich solche Kunden.
 
  • Gefällt mir
Reaktionen: gesperrter_User
Zurück
Oben