• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Mr. Vega schrieb:
In Singleplayer Games, ja. In Multiplayer Games, weiterhin nein. Vorallem in schnellen kompeditiven Shooter wird weiter auf nativ gesetzt und bei fehlender Performance die Einstellungen reduziert. Siehe CS2, R6Siege, Valorant etc.
Die Spiele bieten alle kein DLSS. Cod bietet es und sogar FG. Ich habe beides an und merke dort null Unterschied.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Mimir schrieb:
Klar. 5 Jahre wären ein extrem kurzer Zeitraum für eine Konsoleneneration.

Alleine weil das völlig aus der Reihe fallen würde, halte ich das für sehr unwahrscheinlich.
Wären 2026 dann ja 6 Jahre.

PS1 - 1995
PS2 - 2000 -> 5 Jahre
PS3 - 2006 -> 6 Jahre
PS4 - 2013 -> 7 Jahre
PS5 - 2020 -> 7 Jahre
PS5 - 2026 -> 6 Jahre

Würde schon rein passen.
 
Zuletzt bearbeitet:
FX-Multimedia schrieb:
Definiere besser, es sind nach wie vor Fake Daten, Daten, die vorher nicht vorhanden waren. Egal wie gut, es kommt von den „echten“ Details nicht an nativ ran.
So ein Unfug. Natürlich waren die Daten vorher vorhanden bzw. sogar mehr als nativ, weshalb DLSS auch besser aussehen kann.
 
Taxxor schrieb:
Wären 2026 dann ja 6 Jahre.

PS1 - 1995
PS2 - 2000 -> 5 Jahre
PS3 - 2006 -> 6 Jahre
PS4 - 2013 -> 7 Jahre
PS5 - 2020 -> 7 Jahre
PS5 - 2026 -> 6 Jahre

Würde schon rein passen

Aber nochmal, warum früher?
AMD bringt mit der nächsten Gen gerüchteweise nichts im High End.
Nvidia braucht mittlerweile 2,5-3 Jahre für eine neue Generation und die Chippreise für die besten Fertigungsverfahren steigen.

Alles Gründe, warum es keine Pro gibt.
Alles Gründe, warum diese Generation eher länger statt kürzer am Markt bleibt.

Es bringt doch nichts, sich auf Basis der alten Zyklen irgendwas auszumalen, wenn wir ziemlich klare Fakten haben, die auf absehbare Zeit nur in eine Richting deuten. Nämlich längere Zyklen.

Die PS5 ist im Vergleich zur PS4 übrigens rein auf TFLOPS bezogen fast 8x so schnell und es gibt trotzdem Leute die da grafisch viel zu wenig Fortschritt sehen. Da RDNA2 viele neue Features mitbringt und effizienter arbeitet ist das nichtmal vergleichbar und der reale Gewinn noch größer.

Aktuell brauchst du eine 800-1000€ GPU um die Leistung gegenüber einer PS5 nur um den Faktor 2 zu steigern. Bis wir also genug Leistung haben, die bezahlbar für eine Konsole ist, um dann eine komplett neue Generation zu rechtfertigen, vergeht noch VIEL Zeit. Die Entwicklung war noch nie so langsam wie jetzt und die Kosten noch nie so hoch.

Ich bleib dabei, eine PS6 wird eher später statt früher kommen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Mimir schrieb:
Aber nochmal, warum früher?
AMD bringt mit der nächsten Gen gerüchteweise nichts im High End.


Man liest ja, dass Ende 2024 eine PS5 Pro kommen könnte, wenn es da aber schon eine Art Dev-Kit gibt, müsste dort ja RDNA3 drin stecken, wo ich mich frage wie viel Mehrleistung da rauskommen soll. vielleicht wirds auch dort RDNA3.5 und wir bekommen tatsächlich mal die +50% Perf/W^^
 
blauescabrio schrieb:
...anstatt ihr Spiel zu optimieren...
Und wo ist der Beweis hierfür? Ihr behauptet das dauernd, aber irgendeinen Beweis gibt es hierfür nicht. Das Gegenteil ist sogar der Fall. Die Presse spricht von einem wunderschönen Spiel.
 
  • Gefällt mir
Reaktionen: Quidproquo77
[edit: deleted, eigener fehler, keine weiteren pages angezeigt bekommen]
 
Zuletzt bearbeitet:
Cirael schrieb:
Gibt es irgendein anderes Magazin als CB, das benchmarks für normalsterbliche anbietet und nicht immer nur ausschließlich 4090/7900? Mich interessieren die top modelle null. Ich möchte benchmarks zur mittelklasse der aktuellen und letzten generation sehen.

Geht doch bis zur 3060 runter?
 
  • Gefällt mir
Reaktionen: msv
Taxxor schrieb:
Man liest ja, dass Ende 2024 eine PS5 Pro kommen könnte, wenn es da aber schon eine Art Dev-Kit gibt, müsste dort ja RDNA3 drin stecken, wo ich mich frage wie viel Mehrleistung da rauskommen soll. vielleicht wirds auch dort RDNA3.5 und wir bekommen tatsächlich mal die +50% Perf/W^^


Wäre nett wenns so käme, aber ich seh da aktuell auch keinen Platz für sowas.
Die PS5 „Slim“ kostet praktisch das selbe wie die normale PS5 davor. Es hat nichtmal für einen richtigen Die shrink gereicht, weil die besseren Fertigungsverfahren zu teuer sind.

Eine PS5 Pro wäre daher sehr teuer. Jetzt hat sich aber die PS4 Pro schon ziemlich schlecht verkauft, obwohl diese nicht viel teurer als die normale PS4 war und sie praktisch ersetzt hat. Die PS4 Slim gabs entsprechend günstiger, weils ne Slim war die den Namen verdient hat.

Eine PS5 Pro wäre also ziemlich uninteressant für Sony.
Für den Kunden zu teuer, wenig Verkäufe, geringe Gewinnmarge und trotzdem Entwicklungs und Wartungsaufwand. Und alle Entwickler müssten für eine weitere Konsole parallel entwickeln, was zumindest den QA Prozess an allen Stellen aufbläht.

Für eine Pro muss es gute Argumente für Entwickler und Käufer geben, sonst bringt das nichts. +50% Perf/W ist zu wenig bzw. die Perf/$ müssen bei der Chipproduktion auch passen und das tun sie offensichtlich nicht, wenn man sich die PS5 Slim ansieht, die praktisch nur eine leicht optimierte PS5 ist.
 
  • Gefällt mir
Reaktionen: Headphonejack
Tanzmusikus schrieb:
Weil die Verwendung von Upscalern trotzdem ein Verlust an Bildqualität/-stabilität/-ruhe bedeutet.
Wenn ich in einem Spiel einen Upscaler benutze, dann ist das Bild deutlich unsauberer.
Verstehe ich nicht, das Spiel verwendet UHD skaliert das dann mit DLAA hoch fürs AA, und gibt dann das Ergebnis als UHD Bild aus und dadurch wird das Bild unsauberer als Native?
 
@Apocalypse UHD?
Ich spiele mit meiner RX 5700 XT in 2560x1080, UW-FullHD.
Was meinst Du wie "toll" da auch nur die Quality-Stufe aussieht?!

Kann es sein, dass Du "Upscaling" mit "Downscaling" verwechselst? 😉
FSR & DLSS sind Upscaler. VSR ist ein Downscaler.
 
Zuletzt bearbeitet:
Postman schrieb:
Für mich erst mal ohne Steam Release uninteressant, denn das Spiel gibt es nur bei Ubisoft bzw. bei Epic ...
OMG :heul:
 
Tanzmusikus schrieb:
FSR und DLSS sind Upscaler.
DLSS steht für Deep Learning Super Sampling, und klar kannst du sowohl FSR als auch DLSS so einstellen, das sie als Basis deine Native Auflösung nehmen, bei DLSS nennt sich das dann DLAA, bei FSR iirc FSR (native) im Spielemenü.

Das AA das du damit erreichst ist dann eben besser als mit TAA, aber natürlich kostet es auch mehr Leistung.

Immer daran denken, spätestens seit FSR 2 und DLSS 2 erhöht sich die Bildinformation gegenüber der genutzten Render-Auflösung auch immer. Wer genug Leistung hat, der kann aber natürlich in seiner Nativen Auflösung rendern und dann noch einen mit DLAA oder auch FSR drauf legen. Ob man da in 4k viel von hat oder besser dran wäre FG/FMF für mehr Motion Clarity zu verwenden und/oder die sogar die Renderauflösung zu verringern sei dahin gestellt. Je näher an FHD, desto attrativer ist imho DLAA. Und viel mehr als Native Auflösung mit DLSS als AA ist das ja nicht. Gleiches gilt natürlich auch für natives FSR.

Anyway, ich hab ein seltsames Deja-Vu, ich glaube nicht das ich dich Überzeugen kann, und ganz ehrlich, die Zeiten wo die meisten Spiele kein TAA hatten vermisse ich, aber ich vermisse auch die Zeiten wo niemand auch nur wusste was das Wort Native Auflösung bedeutet und Motion Clarity noch auf dem Level eines 1000hz LCDs waren. Jetzt kann man immer hin sein Display mit einem Signal in Nativer Auflösung füttern und trotzdem die Render Auflösung reduzieren ohne sich das Bild komplett kaputt zu machen. So wie früher am CRT. Abstriche macht man damit trotzdem, aber immerhin.
Ergänzung ()

Tanzmusikus schrieb:
Was meinst Du wie "toll" da auch nur die Quality-Stufe aussieht?!
Aber das Standbild auf der 5700xt dürfte jetzt auch nicht attraktiver sein, wenn man Ultra Details mit Native FSR verwenden würde. Also müssen halt die Details runter, sogar die Texturen, weil der Speicher ja auch nicht mal ansatzweise reicht.

Ob es dann mit FSR Quality oder Native FSR mit noch weniger Details besser aussehen wird? Keine Ahnung, muss man sich dann im Spiel anschauen. Keine GPU und keine CPU hält für die Ewigkeit. Und dieses Jahr scheint es ein Jahr zu werden das nach Upgrades ruft, die dann auch gar nicht so teuer sind.
 
Zuletzt bearbeitet:
Natürlich sind die Daten nicht vorhanden. Ich weiß wie das Upscaling funktioniert. Es werden aber Details aus 2-3 Frames genommen welche in dem aktuellen Frame u.U. gar nicht vorhanden sind. Ergo wird interpoliert, was immer zu einem gewissen Maße "Faken" ist. Auch Anzeigefehler sind oft vorhanden. Auch vergrößert sich die Latenz.

Soll jeder nutzen was er mag, aber an das native Bild inkl. deren besseren Latenz kommt man da nicht ran. Man kann DLSS usw. gerne nutzen, aber wie gesagt, es ist ein vorschwindeln von Leistung welche nicht vorhanden ist. Der Anreiz zum optimieren fehlt den Devs ebenfalls.

Meiner Meinung nach der komplett falsche Weg der da eingeschlagen wird und noch schlimmer das die Presse, wie auch CB hier, das ganze bejubelt.

Ich finde es z.b. extrem anmaßend das Wolfgang hier allgemein die Daseinsberechtigung von nativer Bildausgabe (z.b. UHD) anzweifelt und meint das man Tests mit nativer Ausgabe nicht mehr macht. Das ist nicht wirklich professionell für ein Computerforum.
 
  • Gefällt mir
Reaktionen: alxtraxxx, Tanzmusikus, PegasusHunter und eine weitere Person
FX-Multimedia schrieb:
Es werden aber Details aus 2-3 Frames genommen welche in dem aktuellen Frame u.U. gar nicht vorhanden sind.
sie sind im aktuellen Frame in der traditionell gerendert nativen Auflösung nicht vorhanden, müssten aber vorhanden sein, genau dafür gibt es das Upsampling ja.
Und wenn der aktuelle Frame so anders ist dass bildinformationen in diesem tatsächlich nicht mehr benötigt werden, werden diese auch verworfen

FX-Multimedia schrieb:
Ergo wird interpoliert, was immer zu einem gewissen Maße "Faken" ist.
es ist das sichtbar machen, was von der CPU an die GPU geschickt wurde, aber aufgrund von zu geringer Auflösung nicht in jedem Frame ordentlich dargestellt werden kann. Dadurch entsteht flimmern, weil die Pixel es mal in einem Frame durchs Raster schaffen und in einem anderen Frame mal wieder nicht.
DLSS behebt das und sorgt für Bildruhe

FX-Multimedia schrieb:
Auch vergrößert sich die Latenz.
Falsch, der upsampling Algotithmus an sich wirkt sich nicht negativ auf die Latenz aus, durch die dadurch erhöhten FPS sinkt sie hingegen massiv.


Und selbst wenn es dir bei dem Satz nicht um Upsampler sondern um die Frame Generation gehen sollte, wie kann man sowas unter einem Test schreiben, der gerade genau das Gegenteil gezeigt hat?


FX-Multimedia schrieb:
es ist ein vorschwindeln von Leistung welche nicht vorhanden ist. Der Anreiz zum optimieren fehlt den Devs ebenfalls.
Wenn du wüsstest wie viel „Schwindel“ schon seit Jahrzehnten in deinem angeblich „nativen“ Bild drin steckt damit du mehr FPS aus deiner GPU bekommst.

Und warum sollte der Anreiz zum optimieren fehlen? Es bietet den Anreiz noch bessere Grafik möglich machen zu können. Nur weil die dann nicht mit Ultra Settings und RT ohne Upsampling auf einer Mittelklasse GPU mit 60+ FPS läuft, bedeutet das nicht, dass ein Spiel schlecht optimiert wäre. Schließlich gibt es nach wie vor Grafikregler die man bedienen kann. Nur ist Ultra jetzt eben auch wirklich mal fürs High-End gedacht
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, VD90 und Apocalypse
hemmi1982 schrieb:
Ich habe das Gefühl, dass Grafikkarten unter 1000€ nie für 4k reichen. Auf dem Markt passiert gar nichts mehr außer das die Preise steigen.
…und andere zerreißen die Konsolen dafür, dass diese kaum „echtes“ 4K bieten, aber dennoch auf dem Karton „4K“ steht… für 500€ :D

Schaue ich mir die ganzen PC Techniken an, sehe ich dort ebenfalls kaum „echtes“ 4K, ohne Mongeltechnik, mit gute FPS zu einem ähnlichen Preis :mussweg:
 
MrHeisenberg schrieb:
Die Spiele bieten alle kein DLSS. Cod bietet es und sogar FG. Ich habe beides an und merke dort null Unterschied.
Richtig, viele dieser Spiele bieten kein Upscaling (wie genannt Valorant, R6Siege) und/oder Frame Generation oder eben nur rudimentär wie CS2 mit FSR1, was niemand ernsthaft einsetzen sollten.
Und selbst wenn diese Features vorhanden sind, im kompeditiven Bereich nutzt kein ernsthafter Spieler diese Features.

Das mag der Casual anders sehen oder machen.

COD bietet es richtig, hauptsächlich aber für den Singleplayer.

Zudem warum sollte man es nutzen, COD MW3 läuft auch so performant.

Im Multiplayer spielt man bekanntlich auch nicht auf max. Settings zu Gunsten der Erkennbarkeit des Gegners etc.

Das du gefühlt keinen Unterschied merkst, okay.

Aber allen voran generierte Frames haben/bringen aus technischer Sicht im Multiplayer keine Vorteile.

Was auch CB in seinem Cod MW3 Test angemerkt hatte.

Zudem haben speziell in Warzone, DLSS und FSR optische Probleme auf weite Entfernungen verglichen zu nativ.
Was auch bekannt ist in der Community.

Wie gesagt, wenn das für dich, speziell in COD passt, top aber meine Argumentation mit den genannten und weiteren Games sollte halt zeigen das die Software Helferchen im Multiplayer noch nicht da sind wo sie bei den Singleplayer Games sind. Und es wohl auch noch dauern wird bis sie hier so etabliert sind, wenn das überhaupt passiert, in dem Umfang wie bei Singleplayer.

Aber interessant. Hätte ehrlich gesagt nicht gedacht das du in COD unterwegs bist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben