• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Quidproquo77 schrieb:
Und die Begründung dafür ist welche?
Schau dir den Großteil der Multiplayer Games an. In dem Großteil davon gibt es keine Verwendung für Software Helferchen weil sie entweder nicht so fordend sind (weil sie auf Raytracing Effekte und Co. verzichten) und/oder diese Features gar nicht erst Supporten. (Valorant Bsp)
Und selbst wenn, nutzen es die meisten Nutzer nicht.
Weil gerade im kompeditiven und Esports Bereich verpönt.

Und Frame Generations ist für schnelle Multiplayer Games aus technischen Gründen schon keine Empfehlung.
Was CB ja auch beim COD MW3 Test so geschrieben hattte.
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Das ist keine Meinung, das kannst du in jedem Test bestätigt sehen, aktuell mindestens in 4K und oftmals ist auch in WQHD kein Unterschied mehr auszumachen.
Mit DLSS Quality hast du einfach viel mehr Bildinformationen zur Verfügung als Nativ, natürlich sieht das finale Bild zwangläufig besser aus, wenn alles ordentlich implementiert wurde.
Definiere besser, es sind nach wie vor Fake Daten, Daten, die vorher nicht vorhanden waren. Egal wie gut, es kommt von den „echten“ Details nicht an nativ ran.
 
  • Gefällt mir
Reaktionen: DiamondDragon und PegasusHunter
Wolfgang schrieb:
Im Artikel zu FSR 3 Frame Generation hast du Ultra-HD-Benchmarks der RTX 4080 und RX 7900 XTX in nativem Ultra HD mit dem TAA des Spiels. Und da sieht man dann auch wunderbar, wie sinnlos das ist.
Das ist eine erschreckende Entwicklung die entsprechend angeprangert werden sollte(und eigentlich auch mal wurde aber nun wohl als gegeben hingenommen wird). Das was man dafür zu Gesicht bekommt wird dem Leistungshunger nicht gerecht.
Ursprünglich waren die Sachen mal dafür gedacht alten Karten neues Leben einzuhauchen. Inzwischen läuft es selbst im oberen Mittelfeld bis Highend nur mäßig damit.
Der "Fachkräftemangel" hat inzwischen wohl auch die Spieleoptimierung erreicht.

Ich würde mir sehr wünschen Tipps für Einstellungen bei "Normalen" GPUs die in der Masse sind mit zu geben statt nur Benchmarks in "Ultra". Da bekommt man auch mal ein realistischeres Bild wie wirklich gezockt wird und das Spiel aussieht.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
FX-Multimedia schrieb:
Definiere besser, es sind nach wie vor Fake Daten, Daten, die vorher nicht vorhanden waren. Egal wie gut, es kommt von den „echten“ Details nicht an nativ ran.
Gibt es tatsächlich immer noch Leute hier im Forum, die nicht verstanden haben wie DLSS und FSR funktionieren? Da werden keine Daten herbeigefaked, welche vorher nicht da waren. Es werden Daten aus mehreren Bildern (vergangene Bilder und das aktuell gerenderte Bild) genutzt, um daraus das aktuelle Bild in der jeweiligen Zielauflösung zu berechnen. Die Datenbasis ist hierdurch größer als bei der traditionellen Brute-Force-Berechnung. Zur Berechnung des finalen Bildes aus der vorliegenden Datenbasis nutzt DLSS ein neuronales Netz und FSR einen handgeschriebenen Algorithmus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, ComputerJunge, Oudenstekelig und 5 andere
FX-Multimedia schrieb:
Die 7900 XT ist eine gute Karte, aber egal wie man es dreht an eine 4090 kommt sie nicht heran. Ich weiß nicht, wie man jedes Mal zu solchen Aussagen beziehungsweise Märchen kommt. Es gibt einige Ausnahmen, welche speziell auf AMD optimiert wurden, wo die Karte mithalten kann. Ansonsten ist sie einfach technisch unterlegen, hat aber nach wie vor ein sehr gutes Preis-Leistungs-Verhältnis, da sie ja nicht mal im Ansatz so viel kostet wie eine 4090

Genau da gehe ich voll mit.

Die 7900xt ist auch eine gute Karte. Gerade was P/L angeht. Und wenn das Spiel dann mit der Karte gut umgehen kann… dann zeigt sie erst recht das Potential.

Nur ist sie halt in der Summe nicht im Ansatz in der Lage eine 4090 anzugreifen. Wenn man nicht gerade Cherry Picking betreibt.

Verstehe aber jeden der die Karte kauft und eben nicht 1k mehr für eine 4090 zahlt
 
FX-Multimedia schrieb:
es sind nach wie vor Fake Daten, Daten, die vorher nicht vorhanden waren.
@MoinWoll über mir hats schon gut erklärt. Es sind keine Fake Daten, es sind die Daten aus mehreren vorherigen Frames zusammen mit dme aktuellen Frame.
Diese werden miteinander verrechnet und dadurch hat man am Ende eine Datenbasis, mit der man viel präziser bestimmen kann, wie jeder Pixel im aktuellen Bild aussehen muss.
TAA macht als Kantenglättungsverfahren im Grunde ähnliches, nur weitaus primitiver.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, MrHeisenberg, Quidproquo77 und 3 andere
MoinWoll schrieb:
Es werden Daten aus mehreren Bildern (vergangene Bilder und das aktuell gerenderte Bild) genutzt, um daraus das aktuelle Bild in der jeweiligen Zielauflösung zu berechnen. Die Datenbasis ist hierdurch größer als bei nativer Auflösung. Zur Berechnung des finalen Bildes aus der vorliegenden Datenbasis nutzt DLSS ein neuronales Netz und FSR einen handgeschriebenen Algorithmus.
und dieses neu errechnete Bild ist dann tatsächlich qualitativ hochwertiger/detailreicher/klarer/schärfer (was auch immer) als das originalte native und somit unveränderte Bild in der originalen UHD Auflösung ?

ich bin da irgendwie auch noch skeptisch, ich muss das wirklich mal in Screenshots selber für mich austesten, hat jemand nen Game Tipp wo das wirklich gut rauskommt das der Screen mit DLSS hochwertiger/detailreicher usw. aussieht als in nativ UHD?
 
ilovebytes schrieb:
und dieses neu errechnete Bild ist dann tatsächlich qualitativ hochwertiger/detailreicher/klarer/schärfer (was auch immer) als das originalte native und somit unveränderte Bild in der originalen UHD Auflösung ?
Wenn alles ordentlich implementiert ist, ja.
Besonders feine Details in Entfernung, die nur 1-2 Pixel breit sind, die in nativer Auflösung beim Rastern gerne mal durchrutschen, wie feine Kabel, Balkongeländer etc. welche dann flimmern, können mit der Datenbasis, die durch DLSS vorliegt, rekonstruiert werden, sprich so dargestellt werden, wie die CPU es der GPU eigentlich vorgegeben hat(Die CPU schert sich nicht um Auflösung, die GPU muss die Infos in ein Pixelraster packen).

Dass so ein Geländer dann z.B. ordentliche und flimmerfreie Streben hat, ist nichts, was sich DLSS "ausgedacht" hat, weil es meint, ein Geländer erkannt zu haben und wie es aussehen müsste(glauben leider immer noch viele). Das Geländer sieht gut und flimmerfrei aus, weil durch die Informationen mehrerer Frames und deren Bewegungsvektoren die Pixel genau da sind wo sie hingehören und sich auch nicht verschieben,
Ergänzung ()

c[A]rm[A] schrieb:
Ursprünglich waren die Sachen mal dafür gedacht alten Karten neues Leben einzuhauchen
Nein, das war immer nur ein Nebeneffekt. DLSS kam in erste Linie dafür, um Raytracing lauffähig zu bekommen
Ergänzung ()

Rainbowprincess schrieb:
wie willst du denn bitte künstlich generierte zwischenbilder in einem competitiven shooter sinnvoll nutzen? Du erhältst antizipierte geisterbilder und im schlimmsten fall falsche informationen über das geschehen auf dem bildschirm
Du hast einen geringeren Input Lag dadurch, so kannst du sie nutzen.
Die Zwischenbilder sind in dem Fall genau so lange zu sehen, wie du ansonsten sowieso auf den nächsten Frame warten müsstest.
Also flüssigeres Bild und geringere Latenz. Keine Nachteile.
Tut doch nicht so, als könne euch ein für 8ms angezeigtes Zwischenbild(bei ~120FPS), welches eventuell ein paar Artefakte aufweisen könnte, falsche Informationen vermitteln, die ihr in diesen 8ms nicht nur wahrnehmen, sondern daraufhin Fehlentscheidungen in einem Spiel trefen könntet.
Ergänzung ()

Moep89 schrieb:
Ja, weil Rohleistung immer die Basis sein wird. Ohne Rohleistung wird genau gar nichts berechnet.
Und wo ist nun das Problem, wenn du alle Karten inklusive DLSS/FSR vergleichst? Dann bestimmt weiterhin die Rohleistung über die Performance, nur dass diese insgesamt höher ausfällt und das ist doch was gutes.
Moep89 schrieb:
Das ist, als würde man statt eines VW Passat jetzt einen Polo mit kleinem Anhänger für das gleiche Geld kriegen.
Nein es ist als würde man dem VW Passat eine neue Elektronik verbauen, mir der der gleiche Motor mit gleichem Verbrauch deutlich besser beschleunigt und schneller fahren kan, was mit der alten Elektronik nur unter Einbau eines größeren Motors möglich gewesen wäre.
Alternativ verbraucht er auch bei gleicher Fahrleistung deutlich weniger.

Und dann kommst du und möchtest lieber die alte Elektronik mit höheren Verbrauch und schlechterer Leistung zurück.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oudenstekelig, MrHeisenberg, Quidproquo77 und 3 andere
Taxxor schrieb:
Dann bestimmt weiterhin die Rohleistung über die Performance, nur dass diese insgesamt höher ausfällt und das ist doch was gutes.
Nur wenn man davon ausgeht, dass die „Rohperformance“ bereits maximiert ist und das Vorhandensein von Upscalern wirklich ausschließlich FPS on top bringt. Ich bezweifle das sehr stark, denn es würde der derzeitigen Entwicklung auf dem Spielemarkt quasi 180 Grad entgegenstehen.
 
  • Gefällt mir
Reaktionen: schM0ggi
Moep89 schrieb:
Ich bezweifle das sehr stark, denn es würde der derzeitigen Entwicklung auf dem Spielemarkt quasi 180 Grad entgegenstehen.
Es ist wie jedes mal wenn sich die Performance der GPUs erhöht, sei es nun durch noch höhere Rohleistung oder eben durch technische Fortschritte wie DLSS/FSR:
Wann immer mehr Performance da ist, wird sie von den Spieleentwicklern genutzt, um die Grafik zu verbessern.
Das ganze Gerede um unoptimierte Spiele blendet völlig aus, wie stark mittlerweile die Anforderungen für auch nur die geringste Steigerung der Optik ansteigen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Optisch wirklich schön, ob es mir spielerisch gefällt, muss ich sehen. Getestet wird es aber, gerade in der kalten Jahreszeit ganz nett :)
Schön, dass fsr3 hier eine so gute Performance zeigt, bleibt zu hoffen, dass das ganze in Zukunft die Regel wird.
Der vram Verbrauch ist hochbund gerade für 3070(ti), 3080 und 4070 ti wirklich bedenklich.
 
ilovebytes schrieb:
und dieses neu errechnete Bild ist dann tatsächlich qualitativ hochwertiger/detailreicher/klarer/schärfer (was auch immer) als das originalte native und somit unveränderte Bild in der originalen UHD Auflösung ?
Kann es sein, muss es aber nicht in allen Fällen. Der Bereich geht mittlerweile von leicht schlechter über gleichwertig bis besser.

ilovebytes schrieb:
ich bin da irgendwie auch noch skeptisch, ich muss das wirklich mal in Screenshots selber für mich austesten, hat jemand nen Game Tipp wo das wirklich gut rauskommt das der Screen mit DLSS hochwertiger/detailreicher usw. aussieht als in nativ UHD?
Z. B. The Last of Us. Ich habe damals zwei Vergleichsscreenshots gemacht:
https://imgsli.com/MTY3MDM1

Hier zeigt DLSS Quality sichtbar mehr Details an den Treppenstufen und an der Backsteinwand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yar, SVΞN, MrHeisenberg und eine weitere Person
johnieboy schrieb:
Die RTX5000er kommen laut aktuellen Gerüchten H1 2025. GTA6 kommt irgendwann 2025 (wenn nix verschoben wird), aber nur für Konsolen.
PC Version kommt dann 18-24Monate später wenn Rockstar es wie immer macht. PC GTA6 dann also folglich 2027, welches für RTX6000 realistisch ist.

Nein, 18-24 Monate sind extrem unwahrscheinlich.

GTA V war damals eine Besonderheit. Erst kam das Spiel für die PS3 und Xbox360, dann wurden die deutlich verbesserten Versionen für PS4 und Xbox One entwickelt.
Das dauerte etwas länger. Fast ein Jahr.

Diese next-gen Version diente dann als Basis für die PC Version. Der PC Port kam dann nach deutlich kürzerer Zeit.

Hier die Zeiträume laut Wikipedia
Xbox 360, PS3:
17. September 2013
Xbox One, PS4:
18. November 2014
Windows:
14. April 2015

Da nach dem Release von GTA VI diesmal kein Generationswechsel bei den Konsolen ansteht, rechne ich mit 6 bis maximal 12 Monaten Verspätung für die PC Version.

Bei RDR2 war es 1 Jahr Wartezeit für die PC Version. Allerdings ist ein RDR bei weitem nicht so wichtig wie ein GTA. Daher stehen die Chancen besser, dass der PC Port bei GTA früher kommt.

Abgesehen davon weiß ich nicht, was alle immer mit RTX 6000, 7000 usw haben.

Alle Spiele die in den nächsten 5 Jahren rauskommen werden auch auf PS5 und SeriesX laufen.

Wer heute eine 4070(ti) für 1440p oder eine 4080/90 für 4K hat, der wird bis zum Ende dieser Konsolengeneration alle Spiele völlig problemlos spielen können.

Klar, maximale Details werden immer von Jahr zu Jahr ein wenig nach oben geschraubt, aber das ist eben rein optional.

Hab jetzt schon wieder gelesen, dass GTA VI bei der gezeigten Grafik eine 6090 brauchen würde. Jetzt nen Tag später macht Digital Foundry die erste Analyse und Kommt zum Fazit, jupp sieht fett aus, wäre so wie gezeigt aber auf einer PS5 kein Problem.

Das ding ist auf dem Niveu einer RTX 2070 Super und die Leute machen sich jetzt schon sorgen dass sie eine 6090 brauchen um das Spiel ordentlich spielen zu können?
Leute labern so viel nonsense….
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
Mimir schrieb:
Da nach dem Release von GTA VI diesmal kein Generationswechsel bei den Konsolen ansteht
Bist du dir da sicher? Ende 2025 ist die PS5 immerhin auch schon 5 Jahre alt und vor dem PC Release, der dann irgendwan 2026 kommen könnte, kann es schon Zeit für eine PS6 sein.

Allerdings dürfte das, selbst wenn es so kommen sollte, keinen Einfluss auf die PC Entwicklung haben, PS3 zu PS4 war ja ein kompletter Systemwechsel, PS5 zu PS6 ist wieder die normale x86 PC Hardware nur in schneller, da ist man also mit der Entwicklung einer PS6 Version schnell fertig.
 
Die Messungen zum VRAM sind vielsagend und zeigen wohin die Reise geht.
Immerhin kann ich mit meinem 12 GB noch vernünftig zocken und auch dieses Game läuft noch mit spielbaren FPS, aber das in Zukunft deutlich mehr gefordert wird bei Next-Gen Titeln ist klar. Ich schließe mich da den Kollegen von PCGH an die meinen die aktuelle Mittelklasse lohnt sich nicht zu kaufen, schon gar nicht bei den aufgerufenen Preisen. Wenn dann High-End oder mindestens auf nächstes Jahr warten.
 
  • Gefällt mir
Reaktionen: ShowOff
c[A]rm[A] schrieb:
Ursprünglich waren die Sachen mal dafür gedacht alten Karten neues Leben einzuhauchen. Inzwischen läuft es selbst im oberen Mittelfeld bis Highend nur mäßig damit.
Klar, NVIDIA hat DLSS mit dem Ziel entwickelt, dass niemand neue NVIDIA-Karten kaufen muss. :rolleyes: Wie kommt man denn auf sowas?

DLSS war von Anfang an dafür da, dass aktuelle Grafikkarten Raytracing mit annehmbarer Leistung und guter Bildqualität nutzen können. FSR war dann AMD's Reaktion darauf.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Bist du dir da sicher? Ende 2025 ist die PS5 immerhin auch schon 5 Jahre alt und vor dem PC Release, der dann irgendwan 2026 kommen könnte, kann es schon Zeit für eine PS6 sein.

Klar. 5 Jahre wären ein extrem kurzer Zeitraum für eine Konsoleneneration.

Alleine weil das völlig aus der Reihe fallen würde, halte ich das für sehr unwahrscheinlich.

Dazu kommt, dass die Konsole 1-2 Jahre sehr schlecht verfügbar war und die Cross-gen Phase über 2 Jahre angedauert hat. Die Entwickler fangen jetzt langsam erst an, die Möglichkeiten der aktuellen Architektur zu nutzen. UE5 Spiele die genau auf diesem Featureset aufbauen sind gerade erst in Entwicklung und Entwicklungszyklen von Spielen (und auch Hardware) werden immer länger.

Auch wurden PS5 und Series X diesmal stärker subventioniert. Man hat verhältnissmäßig stärkere Hardware verbaut, als zu PS4 Zeiten. Alleine für den richtigen return of investment muss die Konsole lange genug am Markt bleiben.

Gibt eigentlich nichts was für eine frühzeitige PS6 sprechen würde, außer der Wunsch nach immer mehr Leistung. Aber das ist ja kein Argument.
 
Zurück
Oben