blackiwid schrieb:
Es ging aber auch in die andere Richtung, wenn man RT ausspart die 1-2 Games würde es für AMD noch besser aussehen richtig?
Wie gesagt, ich hätte in dem Fall in beide Richtungen gehen können. Für mich war bei dem Test aber eher wichtig, dass ich mit den Spielen teste, die aktuell öfters mal von mir angeworfen werden. Das waren Cyberpunk, Diablo 4, Diablo 2, Final Fantasy 14, Hogwarts Legacy, Jedi Survivor, Total War: WarHammer 3 und Doom: Eternal. Wäre Starfield schon draußen, dann wäre auch das mitgenommen worden.
Und ich muss zu RT dazu schreiben - ich werde das vermutlich mit dem nächsten Leserartikel machen - dass der Mehrwert von RT sehr stark vom Spiel abhängt und RT auch nicht immer glücklich machen kann. Das fällt mir gerade verstärkt auch in Cyberpunk 2077 auf.
blackiwid schrieb:
Raster scheint AMD dann selbst schneller als 4090 zu sein oder gleich schnell Average und minimal vorne?
Ja und Nein, es kommt auf das Spiel an. In diesem Fall zeigt sich eher etwas, was auch wieder CB, aber auch Igorslab und Co fest gestellt haben - und das ist jetzt ein Lob an AMD. Der Treiber von AMD benötigt für seine Arbeit weniger Ressourcen als der von NVIDIA. Es gibt Spiele, in denen die 7900 XTX mit der 4090 mithalten oder sogar leicht überholen kann, weil der NVIDIA-Treiber sich mehr "abzwackt". In so einem Fall läuft das Spiel dann in einem CPU-Limit, was man auch merkt. In so einem Fall ist es dann interessant, wenn man sich die GPU-Auslastung ansieht und dass stellt man dann fest.
Ich kann so schreiben: Der 5800X3D ist in bestimmten Spielen für die GPU eigentlich zulangsam. Hier müsste eher ein 7800X3D oder 13700K/13900K her.
blackiwid schrieb:
Naja es warst nicht nur du, sondern auch die News dazu klang ein bisschen so. Ich glaub mich störte am meisten das du meintest das Nvidia außer für komische Szenarien das bessere Produkt ist, aber ich halte einen reinen Gamer für ein sehr typisches Szenario, dagegen Spricht nur der Stromverbrauch
Ich bin an der Stelle ehrlich: Aktuell sind die NVIDIA-Karten in den meisten Szenarien das bessere Produkt. Egal ob du jetzt arbeitest oder spielst. AMD ist eine Alternative, gerade durch den Preispunkt. RDNA3 hat bestimmte Schwächen, denen man sich bewusstsein muss. Wenn einen diese Punkte nicht stören, kann man zu dieser Karte greifen und auch die 20 GB und 24 GB sind ein entsprechendes Argument.
Aber AMD kann in dieser Generation nur an zwei Stellen für sich einen Sieg verbuchen: VRAM und Preis. An allen anderen relevantne Stellen verbucht - stand jetzt - NVIDIA für sich die Punkte und Ada ist die runderere Generation.
Bei RDNA2 konnte AMD mit der bessere Effizienz in Rasterizer für sich punkten. Dazu kam, dass man in Rasterizer, je nach Spieleauswahl auch schneller als die 3090 war, gerade auch in 1080p und 1440p, während Ampere erst mit 2160p am Ende die Schlagkraft umsetzen konnte.
Dieses mal reicht es nicht, wei AD102 ein Monsterchip ist. Dazu kommt eben ein vermuteter Fehler in der Hardware. Könnte RDNA3 so takten, wie es vermutet wird, dann wäre AMD dichter dran und in der effizienz vermutlich gleich auf, aber das passt dieses mal nicht.
blackiwid schrieb:
und Stromverbrauch ist in meinem Kopf nur Geld... daher ignorierst du Geld nicht wirklich auf beiden Seiten du sagst die AMD ist schlechter weil sie mehr Stromkosten verursacht für Gamer aber ignorierst die Geldersparnis beim Einkauf, das ist in meiner Sicht unfair (oder ein Framing ob absichtlich oder nicht).
Für mich ist der Energiebedarf nicht mit Geld gleichzusetzen. Klar, kann man den kWh Preis auch nehmen, am Ende ist das aber bei solchen Rechnungen zu abhängig vom eigenen Einsatzszenario.
In den entscheidendne Teillast-Szenarien bei mir nimmt sich AMD und NVIDIA auch nicht wirklich etwas. Wirklich auffällig wird es erst, wenn man FF XIV und WoW mit einbezieht als Schwachlast-3D. Da kann NVIDIA richtig punkten. Auf die Unterschiede bin ich aber nicht weiter eingegangen.
Die 600 € wird die 4090 in ihrer Lebenszeit NIEMALs einspielen können. Daher ist das auch irrelevant. Die Effizienz ist an andere Stelle wesentlich interessanter, nämlich bei mir die Arbeitszeit mit KI-Modellen und Co.
blackiwid schrieb:
Nur halte ich durchschnittswerte fuer weitgehend irrelavant vielleicht ein Bias von mir, aber wenns ruckelt und das Spielerlebnis dadurch drastisch verschlechtert wird sind es die min frames nicht die avg.
Auch da kommt es eben auf das Spiel an. Ich hab Spiele gehabt, die mit der RTX 4090 "bessere" 99.9% hatten, während die 7900 XTX so manche ihrer Probleme hatte und umgekehrt.
Interessanter ist es da aher, wie bestimmte Spiele mit einer Karte umgehen und was da im argen liegt. Man merkt dabei erneut, dass hier der Treiber von NVIDIA mehr "Ressourcen" benötigt als der AMD-Treiber und daher entsprechend die 99,9% etwas schlechter ausfallen, als bei AMD. In anderen Spielen ist die 4090 dann in den Min FPS aber auch wieder voraus.
blackiwid schrieb:
Und kratzt auch sehr an der Vorstellung das die 4090 die absolute Wunderkarte ist, fuer Gaming nicht ausser man cherrypickt ausschließlich RT.
Die RTX 4090 ist keine Wunderkarte, sondern ein massiv überzüchteter Chip - 144 SM - der zeigt, was möglich ist. Die 4090 nutzt ihre TDP nicht wirklich aus und benötigt auch eine entsprechende CPU. Die 5800X3D würde ich als absolutes Minimum für die 4090 ansehen.
Wir werden die volle Leistungsfähigkeit der RTX 4090 vermutlich erst in den nächsten Jahren erleben, bisdahin? Wird man abwarten müssen.
blackiwid schrieb:
Theoretisch könnte CB das machen, ob die Tests allerdings 3000 Euro wert sind halte ich für Zweifelhaft hab schon für ne Zeitschrift 2 Artikel geschrieben und die Wurde verkauft für Geld und da ist Werbung drin und die haben mir nicht so viel gezahlt.
Ich lasse mich bei sowas auch nicht unter Wert bezahlen. Vor allem bei der Arbeit.
Und hier ist die Hauptarbeit das Testen und Co, nicht der eigentliche Artikel.
MoinWoll schrieb:
Das entspricht doch überhaupt nicht der Realität. Aus dem CB Test* der 7900 XTX:
Natürlich entspricht das, was ich gemessen habe, der Realität, sonst hätte ich das ja nicht messen können. Und die Kombo 5800X3D und RTX 4090 ist jetzt auch nicht "so" selten, wenn man sich einige Signaturen ansieht.
Es gilt aber halt, dass der 5800X3D für die RTX 4090 quasi das Minimum an CPU darstellt, drunter sollte man echt nicht gehen.
Aber ja, ein 7800X3D oder 7950X3D sowie 13700K oder 13900K würde hier das Bild noch mal verschieben. Gleichzeitig ist es aber durchaus interessant, dass in einem CPU-Limit der Treiber von AMD besser aggiert.
MoinWoll schrieb:
Hier liegt einfach ein vollständiges CPU Limit vor, was auch dadurch bestätigt wird, dass die Werte beider Karten fast exakt beieinander liegen.
Bei der 4090 ist es ein absolutes CPU-Limit. In den Spielen, in den die RTX 4090 langsamer ist als die 7900 XTX im 99.9 %, ist auch die GPU-Auslastung relativ gering. Hier liegt das Problem aber nur zum Teil in der CPU, sondern ist auch bei NVIDIA beim Treiber zu suchen, der wesentlich eher eine CPU fordert. Der AMD-Treiber ist effizienter.