News Radeon RX 9070 (XT): PowerColor zeigt nächste „Red Devil“ und „Hellhound“

ThePlayer schrieb:
Wenn man sich hier bei CB die Techniktests zu den Spielen ansieht. Ist es sehr oft so das man entweder Ghosting hat oder andere Probleme. Selbst DLSS ist selten gut implementiert. Und da ist es doch total ärgerlich wenn man damit ein besseres oder ruhigeres Bild mit mehr FPS erreicht wenn locker 2 von 3 Spielen das nur schlecht implementieren.
Die Spiele die das schlecht integrieren gibt es eigentlich schon länger nicht mehr, denn es sieht mittlerweile in Full HD besser aus als TAA, bei deutlich mehr Performance. Und das ist ja auch mit den Plugins für die Engines kein allzugroßes Problem mehr, selbst für Entwickler-Laien wie mich.
Große Fehler können damit kaum mehr gemacht werden.
Gut implementiert eher in 9/10 Spielen oder meinst du jetzt Frame Generation?
Ghostfacekalle schrieb:
DLSS ist unterm Strich besser, aber hat auch mit Problemen zu kämpfen,je nach Spiel.
Wenn du DLSS auf deiner Karte nutzen könntest und den Vergleich hättest, dann würdest du es sicherlich anders sehen. Aber vielleicht schafft AMD ja mit FSR4 endlich einen Sprung nach vorne.
modena.ch schrieb:
Was das Raytracing angeht, über das denke ich unter einer 4080 gar nicht nach, die kleinen Klassen sind dafür einfach viel zu schwach. Das ist in der Klasse kein Argument für mich.
RT kannst du selbst auf Einsteigerkarten wie der B580 nutzen. Regler vielleicht nicht auf Ultra RT, aber mittel kein Problem. RT ist doch längst in die Spiele fest integriert und wenn nicht dann zumindest Lumen.
modena.ch schrieb:
Das sind beides schlicht keine 4K Karten.
Klar kannst du die Karte auch auf einem 4K Monitor betreiben und dann schlicht Performance Upscaling betreiben. Das spart jede Menge Speicher und Leistung und sieht in der Regel so gut aus wie die Native Auflösung, was man von FSR ja nicht behaupten kann.
modena.ch schrieb:
Da würd ich unter einer 4080 nicht mal dran denken.
Solchen engen Grenzen die du dir auferlegst gibt es halt in der Realität nicht.
Du kannst auch mit einer RTX 4060 Ti 16GB in 4K + DLSS spielen, vielleicht dann nicht mit allen Reglern an Anschlag, statt ultra eben Hoch.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Gut implementiert eher in 9/10 Spielen oder meinst du jetzt Frame Generation?
Nein ich mein DLSS und FSR mal ist das eine an der stelle besser mal das andere an der anderen Stelle besser.
DLSS hat die Nase vorn. Aber es gibt immer wieder Implementierungen die einfach nur schlecht sind. Das wird hier auch immer wieder auf CB in den Technik Tests der Spiele deutlich.
FSR3.1 soll ja viel besser sein als noch die erste 3.0 Version. Aber es wird trotzdem meist sehr schlecht implementiert. Bei DLSS gibt es von Ghosting über Flimmern bis hin zu Lag auch immer wieder Probleme.
Ich habe jetzt keine Auswertung gemacht, aber ich glaube kaum das deine Schätzung mit 9/10 Spielen sind gut implementiert stimme ich nicht zu. Selbst 50% wäre schon zu gut.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
ThePlayer schrieb:
Ich glaube es liegt mehr daran ob man die Spiele vernünftig optimiert. Und sich schon während der Entwicklung überlegt wie man etwas Ressourcen sparend ins Spiel programmiert. Und nicht auf so einen Kackhaufen wie die UE setzt.
Aber vielleicht werden die Entwickler auch von Nvidia und AMD dazu ermuntert so schlecht zu optimieren. Dann müssen die Kunden alle zwei Jahre eine neue Graka kaufen.
Schlecht optimiert kann man immer in den Raum werfen, besonders wenn man keine Ahnung von der Entsprechenden Spiele Entwicklunge und den Abläufen der beschuldigten Spiele Entwickler hat und nur das Ergebniss sieht. Besonders ist "Optimierung" ein sehr Breites Stichwort. Es kann sich nur auf die presets beziehen oder auf den ganzen spiele Prozess. Die meissten würden das Wort optimierung garnicht in den Mund nehmen und sich einfach über die Spiele freuen, wenn die Max Presets einfach weggelassen würden werden. Oh seht wie toll dieses jenes spiel optimiert ist.

Das Problem ist einfach immer Geld/zeit. Und das wir eine Zeit hinter uns haben wo die Hardware ohne Probleme mit den alten Engine rumspielen konnte. Die neuen Engines, besonders mit der stärkeren integration von RT Entwickeln sich noch und fordern einfach die neuere Hardware mehr. Das wird Aber auch wieder abnehmen. Sicher ist DLSS/FSR/XESS ein Werkzeug um entsprechende Leistungsprobleme auszugleichen, Dennoch ist die Entwicklung dieser Werkzeuge sehr Gut, sonnst würde das Thema 4k/RT/PT noch weiter zurückliegen. Das Problem ist nunmal, Hardware Entwicklung ist Langsam gegen über Software.
 
  • Gefällt mir
Reaktionen: ThePlayer
Northstar2710 schrieb:
Schlecht optimiert kann man immer in den Raum werfen, besonders wenn man keine Ahnung von der Entsprechenden Spiele Entwicklunge und den Abläufen der beschuldigten Spiele Entwickler hat und nur das Ergebniss sieht.

Das Problem ist einfach immer Geld/zeit. Und das wir eine Zeit hinter uns haben wo die Hardware ohne Probleme mit den alten Engine rumspielen konnte. Die neuen Engines, besonders mit der stärkeren integration von RT Entwickeln sich noch und fordern einfach die neuere Hardware mehr. Das wird Aber auch wieder abnehmen. Sicher ist DLSS/FSR/XESS ein Werkzeug um entsprechende Leistungsprobleme auszugleichen, Dennoch ist die Entwicklung dieser Werkzeuge sehr Gut, sonnst würde das Thema 4k/RT/PT noch weiter zurückliegen. Das Problem ist nunmal, Hardware Entwicklung ist Langsam gegen über Software.
Du magst Recht haben. Nur gab es die letzten 2-3 Jahre soviel Spiele die selbst ohne RT nicht bessere oft sogar etwas schlechtere Grafik boten als andere Spiel. Aber dafür eine stärkere GPU verlangten.
Deswegen glaube ich das viele Entwickler aus welchen gründen auch immer mit den Engines sehr schlechte Arbeit leisten.
 
LamaMitHut schrieb:
Das tut schon die 7800xt, nur nicht in jedem Spiel mit Always Ultra pipimax Einstellungen. ;-)
Die Frage ist ja bei all den Karten: Wie sicher ist, dass 16GB für die nächsten 3-5 Jahre ausreichend ist auf 1440p, wenn man mehr als nur Mittel einstellen möchte?
 
Quidproquo77 schrieb:
Wenn du DLSS auf deiner Karte nutzen könntest und den Vergleich hättest, dann würdest du es sicherlich anders sehen. Aber vielleicht schafft AMD ja mit FSR4 endlich einen Sprung nach vorne.
Ich denke nicht. Ich sagte ja das DLSS unterm Strich besser ist.
Ich nutze z.b. in 3 Titeln Upscalling. Da vergleiche ich FSR3 und XESS. In einem Titel sieht XESS besser aus,in den zwei anderen erkenne ich keinen Unterschied.

Wenn ich mir verschiedene Test anschaue z.b. hier auf CB, dann heißt es im großen und ganzem DLSS ist besser, aber die Unterschiede mal mehr mal weniger intensiv.
Oder DLSS hat da Probleme und FSR hat dort Probleme. Oder eine von den Techniken versagt völlig. Oft auch schlecht implementiert.
Ich hab DLSS auch schon bei LAN Partys gesehen. Da sagt aber auch jeder was anderes. Der eine findets gut, der andere nicht.

Aber ja,mal sehen wir FSR 4 wird. Sollte sich ja auch technisch an DLSS annähern.
Vorraussichtlich auch nicht mehr mit RDNA2 Support.
 
  • Gefällt mir
Reaktionen: ThePlayer
FrittiDeluxe schrieb:
Wie sicher ist, dass 16GB für die nächsten 3-5 Jahre ausreichend ist auf 1440p, wenn man mehr als nur Mittel einstellen möchte?

Das du dir so eine Frage stellst, zeigt doch eher das die Diskussion um VRAM dich doch eher blendet als dich informiert. Ein mittleres preset könnte heute schon 16gbRAM karten in die knie zwingen. Nur ob das Entwickler das machen steht auf ein ganz anderes Blatt. Glaskugel/on/off/. Die spiele werden immer eine möglichkeit bieten auf kleineren Karten zu laufen. Was bringt dir VRAM wenn die Karte deine geforderte Leistung garnicht umsetzen kann.
 
modena.ch schrieb:
Komischerweise ist das meist nur ein Thema, wenn NV mal wieder etwas in Front liegt, aber zu glauben, dass AMD nicht auf oder gar überholen könnte ist naiv.
Ich wäre sehr froh, wenn es AMD schafft. Wir werden es bald sehen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
FrittiDeluxe schrieb:
Die Frage ist ja bei all den Karten: Wie sicher ist, dass 16GB für die nächsten 3-5 Jahre ausreichend ist auf 1440p, wenn man mehr als nur Mittel einstellen möchte?
Gute Frage, früher waren die Sprünge beim VRAM oft Verdoppelungen. Von 4 auf 8 auf 16 auf 32. Später von 128 auf 256 und dann 512 und 1gb. Jetzt hat die 4060ti soviel Vram wie die 5080 haben wird. Die 5080 soll aber eine 4k Karte sein. Wohingegen eine 4060ti eine 1080 Karte ist. Bei 1440p wird es bestimmt die nächsten 3 Jahre noch reichen darüber hinaus weiß ich es nicht. Mit 12 GB ist es aber in 4k jetzt schon zu wenig.
 
  • Gefällt mir
Reaktionen: FrittiDeluxe
Northstar2710 schrieb:
Das du dir so eine Frage stellst, zeigt doch eher das die Diskussion um VRAM dich doch eher blendet als dich informiert. Ein mittleres preset könnte heute schon 16gbRAM karten in die knie zwingen. Nur ob das Entwickler das machen steht auf ein ganz anderes Blatt. Glaskugel/on/off/. Die spiele werden immer eine möglichkeit bieten auf kleineren Karten zu laufen. Was bringt dir VRAM wenn die Karte deine geforderte Leistung garnicht umsetzen kann.
Ich würde es nicht blenden nennen, ich würde eher sagen, dass ich generell, nur weil - Stand heute - Leistung und Speicher ausreichend sind, davon nicht noch in 3 Jahren ausgehen muss bzw. in einem Zeitraum, in dem ich dann keine neue kaufen würde.
Natürlich gibt's genügend Games, in denen die Leistung zuerst nicht ausreichend ist - ich vermute aber, dass sich dies immer ein wenig an den jeweiligen Konsolen wird messen lassen.
Gut, damit käme man zur Frage, wie stark könnten diese werden?
Die PS5 Pro bewegt sich doch schon irgendwo im Bereich der RX 6800, wenn ich mich nicht irre, also wird eine hypothetische PS6 ja eher im Bereich 7900 XT anklopfen (müssen).

ThePlayer schrieb:
Gute Frage, früher waren die Sprünge beim VRAM oft Verdoppelungen. Von 4 auf 8 auf 16 auf 32. Später von 128 auf 256 und dann 512 und 1gb. Jetzt hat die 4060ti soviel Vram wie die 5080 haben wird. Die 5080 soll aber eine 4k Karte sein. Wohingegen eine 4060ti eine 1080 Karte ist. Bei 1440p wird es bestimmt die nächsten 3 Jahre noch reichen darüber hinaus weiß ich es nicht. Mit 12 GB ist es aber in 4k jetzt schon zu wenig.
Es ist ein wenig unüberschaubar geworden, wie du es auch gut beschreibst. Vermutlich werden 16GB auf 1440p noch gut reichen (wenn man vielleicht von ein paar Vorzeige-Games wie CP2077 es zuvor war absieht), aber ich frag mich manchmal:
Wenn VRAM günstig genug ist, um 16GB auf eine 4060Ti zu schnallen, wieso gibt man den deutlich größeren dann ebenso viel?
Oder will man die kleinen Karten nur künstlich teurer machen?
 
AwesomSTUFF schrieb:
Es gibt Sie also selbst bei Computerbase noch - "Traumtänzer", die eine 500€ GPU mit 4k Leistung auf 4080 Niveau erwarten. Lustig.
der eigentliche Witz bei Nvidia und AMD seit Upscalern ist ja, dass man nur noch eine GPU braucht, die 60FPS in nativer FHD Auflösung rendern kann... und schon kann man der GPU ein Preisschild mit 4 Stellen vor dem Komma draufkleben, weil dank Upscaler sind das dann auch schon 60FPS in UHD. Und mit FG, werden es sogar noch mehr FPS.
 
Ich sehe eher das Problem, dass viele Gamer eher eine RX 9080 XT OC
bevorzugen würden!:mussweg:
 
  • Gefällt mir
Reaktionen: Darkwater, Lonex88, Sunjy Kamikaze und eine weitere Person
flynn9 schrieb:
Wäre toll wenn man diesmal die LEDs ausstellen könnte.
Bei meiner derzeitigen PowerColor geht es nicht.
Wirklich? Das geht ja mal gar nicht (Nein kein Sarkasmus)
Ergänzung ()

TheInvisible schrieb:
Nur Nvidia ist böse weil sie dlss-fg exklusiv gemacht haben, bei AMD ist das sicher wieder ganz anders ;-)
Ist nicht anders wie der Sprung von GTX zu RTX, mit dem Unterschied, dass es trotzdem einen Upscaler von AMD gibt. Nvidia hat einfach gar nichts gemacht (Friss oder stirb).
FSR FG gibt es auch weiterhin
Ergänzung ()

TheInvisible schrieb:
Stimmt nur für Rdna4
Das ist noch gar nicht klar, oder hast schon alle Folien gesehen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexander 65
Alexander 65 schrieb:
Ich sehe eher das Problem, dass viele Gamer eher eine RX 9080 XT OC
bevorzugen würden!:mussweg:

Hat hier wer '9090 XTX' gesagt? :mussweg:
 
  • Gefällt mir
Reaktionen: Alexander 65
Alexander 65 schrieb:
Ich sehe eher das Problem, dass viele Gamer eher eine RX 9080 XT OC
bevorzugen würden!:mussweg:
Klar, sieht man ja beim StwakHardwaresurvey
 
  • Gefällt mir
Reaktionen: Alexander 65
ThePlayer schrieb:
Aber es gibt immer wieder Implementierungen die einfach nur schlecht sind.
Dann musst du andere Tests als ich lesen und vor allem kein DLSS selbst je ausprobiert haben.

In den letzten 10 getesteten Spielen war das Fazit durchweg positiv und ich hab mir die Mühe gemacht und extra reingeschaut.
Lego, Stalker, Veilguard, Black Ops, Horizon Zero Dawn, Mech Warrior 5, DiabloVI, Silent Hill 2, Until Dawn, Warhammer, Final Fantasy.

Schlechte Implementierungen sind ein Relikt.
ThePlayer schrieb:
Das wird hier auch immer wieder auf CB in den Technik Tests der Spiele deutlich.
Konnte ich nicht finden.
ThePlayer schrieb:
FSR3.1 soll ja viel besser sein als noch die erste 3.0 Version.
Nö. Man hat das Flimmern etwas reduziert, hat dafür aber mehr Ghosting.
 
  • Gefällt mir
Reaktionen: Alexander 65
Weil sich die 4090 auch sehr gut für ML eignet
 
  • Gefällt mir
Reaktionen: Alexander 65
Zurück
Oben