Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

aeri0r schrieb:
Ich frage mich grad, wieviel Unterschied es bringen würde meinen 5900x mit dem 5800x3D zu tauschen. Hab mir zwar reviews angeschaut und beide gefunden, aber die Benchmarks fluktuieren schon ziemlich - da ist es schwer den Performancegewinn fest zu stellen :o Hat da wer eine % Schätzung? xD
Genau diesen Wechsel habe ich vollzogen. Anbei mal ein Screenshot, hatte mal Farcry 6 und Cyberpunk 2077 getestet.

1665737496288.png


Die Tests wurden in UHD gemacht, war trotzdem im CPU-Limit.

Und wenn man viele RTS-Titel spielt lohnt es sich ohnehin (oder Online-Shooter mit vielen gleichzeitigen Spielern).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: laxus222, Zwirbelkatz, Icke-ffm und eine weitere Person
aeri0r schrieb:
Hat da wer eine % Schätzung? xD
Wenn du nicht gerade in 720p spielst, 0-5% vermutlich. Hab selbst keinerlei Unterschied gemerkt bei den FPS nach Wechsel von 3700 auf 5800X3D.
Mit deiner CPU wirst du in wenigsten Titeln in einem CPU Limit hängen mit einer 4090.
 
  • Gefällt mir
Reaktionen: guillome, RogueSix und Recharging
aeri0r schrieb:
Ich frage mich grad, wieviel Unterschied es bringen würde meinen 5900x mit dem 5800x3D zu tauschen. Hab mir zwar reviews angeschaut und beide gefunden, aber die Benchmarks fluktuieren schon ziemlich - da ist es schwer den Performancegewinn fest zu stellen :o Hat da wer eine % Schätzung? xD
Kommt darauf an, aber im Schnitt so ~ 10 %.
Meiner Meinung nach, wenn du die CPU allround betreibst, steht es sich nicht dafür, Kerne abzutauschen. Wenn du jedoch nur spielen willst, ok, dann mögen es auch mal 15 % sein.

8 gegen 12 Kerne ... ich würde nie mehr zurück gehen. Ich nutze die Kiste aber auch zu 50 % zum Arbeiten (CAD, GIS, DB, etc.).
 
  • Gefällt mir
Reaktionen: aeri0r
aeri0r schrieb:
Ich frage mich grad, wieviel Unterschied es bringen würde meinen 5900x mit dem 5800x3D zu tauschen. Hab mir zwar reviews angeschaut und beide gefunden, aber die Benchmarks fluktuieren schon ziemlich - da ist es schwer den Performancegewinn fest zu stellen :o Hat da wer eine % Schätzung? xD
der 5800x3D scheint zumindestens im TS die Graka net auszubremsen
(funzt bei OCern ganz gut)

https://www.3dmark.com/spy/31383583
 
  • Gefällt mir
Reaktionen: aeri0r
aeri0r schrieb:
Ich frage mich grad, wieviel Unterschied es bringen würde meinen 5900x mit dem 5800x3D zu tauschen. Hab mir zwar reviews angeschaut und beide gefunden, aber die Benchmarks fluktuieren schon ziemlich - da ist es schwer den Performancegewinn fest zu stellen :o Hat da wer eine % Schätzung? xD

Die wichtigste Angabe fehlt hier: Welche Auflösung? Welche angestrebte Bildwiederholrate?
 
  • Gefällt mir
Reaktionen: guillome und Recharging
Es ist halt ein Trugschluss, wenn man denkt, dass erst bei hohen fps schnellere CPUs was bringen. Es gibt so viele Spiele die oft (in gewissen Szenen, nicht konstant) unterhalb meiner Wohlfühl-Zone (90+ fps) agieren, und hier machen 10-15% (5900X auf 5800X3D) eben schon viel aus. Es ist schon ein Unterschied 80 oder 90 fps (12,5% mehr) zu haben. Natürlich gibt es auch genauso viele Spiele, die konstant mit schwächeren CPUs 141 fps halten können, keine Frage.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und aeri0r
Wenn man viel Simulationen spielt wie Anno, Captain of Industry oder Stellaris kann man nicht genügend "single"-core Leistung haben. Der 5800x3d wird hier sicherlich um einiges schneller sein als ein 5900x oder 5950x. In Shootern wohl weniger relevant, es sei denn man möchte 144++ herz spielen.
Wenn's preislich grundsätzlich in Frage kommt würde ich aber wohl eher empfehlen auf die neuen Intels zu warten bzw. die x3d der 7000er AMD Serie. Performancetechnisch dürfte da für Gamer ordentlich was drin sein im Vergleich zum 5900x.
 
Booth schrieb:
Die 4090 ist sicher ein exzellentes High-End-Produkt... welches für evtl 0.1-1% der Anwender interessant ist.
ah und woher weißt du das mit den 0,1-1%?
Jeder der mind. in 4K zockt, VR macht oder evtl. mit dem Teil sogar arbeitet hat jetzt schon einen Mehrwert mit dieser Graka und dem verbundenen Leistungsbums. Also Interessant (rein aus technischem Aspekt) mit Sicherheit für mehr Leute als man denkt.
Ein völlig andere Frage ist (unabhängig von dem oben geschriebenen), wie viele den Preis dafür zu zahlen bereit sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna, Laphonso und aeri0r
Ich spiele gerade Kingdom Come: Deliverance und mit der 5800X3D läuft das Spiel endlich flüssig auch in UWQHD. Hatte allerdings davor eine 3600XT.
 
Booth schrieb:
Die 4090 ist sicher ein exzellentes High-End-Produkt... welches für evtl 0.1-1% der Anwender interessant ist.

wenn ich wüsste das 4K mein Gaming Leben massiv verbessert würde ich schon recht sicher umsteigen - aber aktuell bin ich mir nicht sicher, zumal mein aktuelles paket quasi unschlagbar günstig war :)

und der 4K monitor markt auch total seltsam ist:

bei den 4k (3840 x 2160) - 31.5 zoll - curved - modellen gibt es NUR (!) VA Panels die ALLE (!) nur 60hz haben, die quasi "gar nichts" kosten

und bei den UWUHD (5120x2160) - curved - modellen gibt es NUR (!) IPS Panels die immerhin teilweise bis 75hz gehen, aber erst ab 1200 losgehen


es gibt gar keinen 4k 31.5" monitor die mehr als 60hz hat und/oder ein ips panel hat
da musste dich dann vor 27" klitschen hocken,

oder ein UWUHD panel mit 100hz z.b. - gibt es auch nicht.

dafür dann nen MSI optix mit 175hz und 3840x1600 und 37,5" für knapp 1800
und den optix kriegste doch auch mit einer 3090 gut befeuert (RT aside)

und mir eine GPU für 2000 Euronen zu kaufen um dann ein 300 euro VA panel mit 60hz zu bespaßen - keine ahnung. (und wäre auch kein UW)

scheint mir dann noch das sinnvollste zu sein auf die UWUHD teile zu gehen. IPS+70hz
das wären dann 1300 monitor + 2000 GPU = 3300

mein aktuelles system hat GPU+Monitor knapp 1000 gekostet.

klar, könnte man auch als zweitsystem benutzen, die frage ist halt wieviel mehrwert bietet 4K
zu UWQHD :)

und dann nichtmal 100hz auf dem Monitor.
 
Zuletzt bearbeitet:
br3adwhale schrieb:
@Morph007 ne nach Spiel, mal mehr mal weniger - im Schnitt ("Performancerating 3.840 × 2.160") 4%.

Hast du den Abschnitt nicht gelesen?
Klar habe ich den Abschnitt gelesen, aber auch 4% machen nicht den Unterschied zwischen "spielbar" und "unspielbar" oder "flüssig" und "nicht flüssig". Daher finde ich die Wortwahl des Autors trotzdem etwas übertrieben.
 
Melu76 schrieb:
es gibt gar keinen 4k 31.5" monitor die mehr als 60hz hat und/oder ein ips panel hat
da musste dich dann vor 27" klitschen hocken

Ich habe gerade "32" IPS 4k 144hz" bei Google eingegeben und hatte nach 5sec direkt ein Treffer:
Gigabyte Aorus M32U ... da gibt es einiges!
LG UltraGear 34GP950G ... + Curved
 
Zuletzt bearbeitet:
@Morph007 Kommt halt eben auf das Spiel an. in F1 22 sind es 10 FPS und bei Facr Cry 6 mit RT im 1% low knapp 20.

Ist schon ne Menge...
 
Silentfan86 schrieb:
Genau diesen Wechsel habe ich vollzogen. Anbei mal ein Screenshot, hatte mal Farcry 6 und Cyberpunk 2077 getestet.

Anhang anzeigen 1270282

Ui, das ist ja aber doch ein bißchen was, das hilf tmir danke!
RogueSix schrieb:
Die wichtigste Angabe fehlt hier: Welche Auflösung? Welche angestrebte Bildwiederholrate?

UWQHD bis 175hz und VR Reverb g2.

Hab ja schon hervorragende und schnelle Antworten erhalten - lieben Dank allen!

Werd glaub ich mal den 5800x3D dann auch besorgen wenn nun schon ne 4090 - bei Verkauf ist das ja fast +/- 0 dann.
 
guillome schrieb:
ah und woher weißt du das mit den 0,1-1%?
1665739278258.png


Die Verbreitung dieser Karten ist doch kein Geheimniss.. Kann man z.B. in den Steam Charts nachschauen.
Es ist auch nur logisch, dass jetzt nicht 10% der Anwender eine 3090 haben - überschlag mal wieviele das wären :freak:
Die Hardwareverbreitung hier im Forum kann man halt nicht nach außen übernehmen.
 
  • Gefällt mir
Reaktionen: Illithide, RogueSix und PHuV
Recharging schrieb:
Irgendwann ist halt mit Parallelisieren auch Schluss, ökonomisch wie technisch, soll heißen, auch wenn es jetzt vielleicht spezifisch bei Anno besser ginge
Bei Anno wäre ggf. ein Wechsel vom 100% berechneten, deterministischen System auf ein Näherungssystem vielleicht eine Lösung. Realistisch ist die 100% exakte Produktion und Verbrauch ohnehin nicht. Vielleicht könnte man solche Berechnungen dann sogar auf die Grafikkarte auslagern.
Dazu müsste man die Anno Engine natürlich von Grund auf neu konzipieren, das wird sich kaum lohnen, nur um für die paar Extremspieler bessere Leistung im Endausbau zu ermöglichen.

Booth schrieb:
Klar ist die neue Hardware besser. Aber was bringts? Wem nützt der Unterschied zwischen 2k und 4k im Gaming wirklich was? Von Videos ganz zu schweigen.
Bei Filmen und Serien bringt UHD einen deutlichen Mehrwert, zumindest bei entsprechender Displaygröße und Betrachtungsabstand. Das Thema ist aus meiner Sicht auch durch, UHD OLED in 65" kostet nicht mehr die Welt und selbst mit Bitraten deutlicher unter UHD-BD sieht das fantastisch aus.

Bei Gaming sehe ich die Fokussierung nur auf Auflösung und FPS auch kritischer. Der grafische Gesamteindruck wird nicht nur durch diese beiden Parameter bestimmt.
Ich sehe da seit einiger Zeit eine Diskrepanz zwischen Auflösung&FPS und den anderen Bereichen wie Renderdistanz, Qualität LOD, Polygonanzahl und Texturqualität der Assets, Zerstörbarkeit bzw. Interaktionsmöglichkeit mit der Welt und der allgemeinen Qualität des World/Levelbuildings.

Ein gutes Beispiel ist da Deathloop, das sieht aus, als ob da Assets mit unterschiedlichem Artstyle und unterschiedlicher Detailqualität, (Polygone, Texturen und Modellierungsqualität) vollkommen unstrukturiert zusammengeklickt wurden. (Das Gameplay mag dennoch gut sein, habe es noch nicht gespielt)

Cyberpunk ist ein weiteres Beispiel, wenn auch auf einem deutlich besseren Niveau. Aber mir wäre mit besserer Renderdistanz, besserer Detaillierung bei NPCs, Assets, etc. mehr geholfen als mit hohen Frames @4k+RTX on.
Das muss halt alles auf einem einheitlichen Niveau sein. Was hilft mir ein wunderschönes Auto mit perfekter Spiegelung der Welt, wenn das Fahrgefühl knapp über Outrun liegt und die anderen Verkehrsteilnehmer/NPCs gefühlt auf GTA3 Niveau liegen (ja, überspitzt dargestellt)

Ich hoffe ja, dass das mit der UE5 Engine besser wird.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Illithide und Recharging
also wie gesagt beim thema 4-K Gaming bin ich aktuell raus.

Unter Ultrawide 5120x2160 + curved (1800R - 1000R) + 120hz/100hz minimum kommt mir nichts mehr auf den gaming table

weil alles andere keinen mehrwert bietet sondern nur seltsame kompromisse sind.
aber immerhin ist die GPU schonmal am start :)

aber diese 70hz/75hz modelle sind natürlich auch schonmal ein anfang.
vielleicht packen die kabel sowieso nicht mehr daten ;)
 
Zuletzt bearbeitet:
Booth schrieb:
Ich habe den Eindruck die Hardware-Branche sowohl im Gaming als auch im Videobereich begeht gerade den SUV-Wahnsinn der Autobranche.

Ich würde mir wünschen wenn Tech-Seiten nicht nur Industrie-Wahn in Form von hoher, schneller, weiter durchpeitschen, sondern nach Sinn und Einsatz fragen und gerade dies testen.

Die moderne Menschheit verballert viel zu viel Ressourcen. Auf allen Ebenen. Und das für Technik, die oft nicht ansatzweise genutzt wird sondern völlig fehldimensioniert ist.
Wenn dann hier Leute von "Effizienz" reden, meinen sie nur Maschinen. Wir bauen diese Maschinen aber für Menschen. Gamer sind Menschen. Und bei weitem nicht nur Tech-Enthusiasten.

Oder in einem simplen Satz: Ich würde mir ein wenig mehr Bodenständigkeit wünschen.

Booth schrieb:
 
  • Gefällt mir
Reaktionen: Wichelmanni
Zurück
Oben