Sind heutige Grafikkarten nicht mehr leistungsfähig genug für native Auflösungen?

Computerlein47

Lt. Junior Grade
Registriert
Aug. 2020
Beiträge
283
Hallo,

mich interessiert, warum diese ganzen Bildskalierungsverfahren wie FSR, XESS oder DLSS in den letzten Jahren so massiv an Bedeutung gewonnen haben. Früher gab es das auch nicht, Spiele liefen immer in der nativen Auflösung und potente Karten konnte diesen auch in max. Details und max. Auflösung bei guten Frameraten darstellen.

Lässt man diese "Upscaling-Tricks" weg, haben sogar sehr leistungsfähige Karten mit manchen Settings und Auflösungen bei diversen Titeln Probleme, ordentliche Frameraten zu erzielen. Manche Karten erweisen sich dann sogar als fast unbrauchbar.

Kann man nun daraus schlussfolgern, dass die Leistungsfähigkeit der Hardware den softwaretechnischen Möglichkeiten (Unreal 5 Engine usw.) aktuell nicht mehr hinterherkommt?

Werden sich diese Upscaling-Techniken zukünftig als Standard im Gaming durchsetzen. d. h. werden Spieleentwickler davon ausgehen, dass ohne diese gar keine ordentlichen Frameraten mehr erzielt werden können?

PS: Soll keine generelle Kritik an diesen Verfahren sein, ich finde es z. B. toll, dass man dadurch die Grafikkarte deutlich effizienter betreiben kann (Lautstärke, Stromverbrauch, Wärmeentwicklung) bei allenfalls geringen optischen Einbußen.
 
  • Gefällt mir
Reaktionen: Clonedrone
Alles eine Sache der Settings...

Verstehe aber auch das Problem nicht, wenn die "Upscaling Tricks" am Ende besser aussehen, als die native Auflösung, hat doch jeder gewonnen.
 
  • Gefällt mir
Reaktionen: CMDCake, Tronado, Tr8or und 5 andere
Computerlein47 schrieb:
Werden sich diese Upscaling-Techniken zukünftig als Standard im Gaming durchsetzen. d. h. werden Spieleentwickler davon ausgehen, dass ohne diese gar keine ordentlichen Frameraten mehr erzielt werden können?
Ist in Alan Wake jetzt schon der Fall.

Die Spieleentwickler nutzen die freigewordene Leistung durch upscaling um andere Bereiche des Spiels Leistungshungriger zu gestalten und der Trend wird weitergehen.

Ich halte das für bedenklich, aber ich habe auch nichts zu sagen. DLSS kann großartig sein, aber ich hätte es lieber als AA und Bildstabilisierung auf die native Aufösung oben drauf ( DLAA)...vermutlich wird das aber dann immer erst einige Generationen später möglich sein.
 
  • Gefällt mir
Reaktionen: GTrash81, Mr.Zweig und Captain Mumpitz
Vor allen Dingen schließe ich, dass die heutige Hardware (GPU) mit den heute üblichen Auflösungen (Anzahl Pixel) nicht mithalten kann.
 
Steinigt mich, aber DLSS Quality sieht besser aus als Nativ TAA und ich will in diese Vergangenheit in der das der Stand der Technik war auch nicht zurück.

TAA sieht absolut scheiße aus. Selbst FSR 3.1 Quality sieht besser aus als Native TAA ab einer Auflösung von 1440p.

Von daher ergibt es sehr viel Sinn, dass Spieleentwickler ihre Entwicklung zumindest auf den Quality Modus der Upsampler optimieren.
 
  • Gefällt mir
Reaktionen: squadric, Tronado, Tr8or und 2 andere
…und möglicherweise wenig Wille vorhanden ist die Software auf die Hardware zu optimieren. Möglicherweise ist das aber auch schwer möglich da die Hardwarelandschaft viel zu heterogen ist.
 
Nur mal so, es war zu jeder Zeit seit anbeginn der Computer möglich jedwede Hardware mit den Softwareaufgaben zu "überfordern"

Am ende visieren die Entwickler einer Software (Spiele) einen gewissen stand an Hardware an und Programmieren drauf loß, das es da wie gewünscht läuft. Heutzutagen eben inklusive skalierungstechniken, also ist alles wie immer, nur anders. Verstehscht?
 
  • Gefällt mir
Reaktionen: florian., BeowulfAgate, calippo und eine weitere Person
Computerlein47 schrieb:
mich interessiert, warum diese ganzen Bildskalierungsverfahren wie FSR, XESS oder DLSS in den letzten Jahren so massiv an Bedeutung gewonnen haben.
Weil die technischen Voraussetzungen gegeben sind, dass sich das überhaupt sinnvoll implementieren lässt.

Was DLSS so besonders macht ist die Nutzung von ML (Machine Learning - heutzutage auch AI genannt) für Upscaling.
Das muss natürlich erstmal trainiert werden und es müssen auf der GPU genügend freie Ressourcen sein, um das Netzwerk 'nebenher' laufen lassen zu können - ohne, dass man dadurch mehr Performance verliert als man durch die geringere native Auflösung gewinnt.

AMD hatte mit FSR bisher versucht mit Algorythmen da mit zu kommen - was eher schlecht als recht funktioniert. FSR 3.0 soll in 2 Monaten dann auch auf ML basieren.

Computerlein47 schrieb:
Spiele liefen immer in der nativen Auflösung und potente Karten konnte diesen auch in max. Details und max. Auflösung bei guten Frameraten darstellen.
"But can it run Crysis?" wurde zum Meme weil es eben nicht auf max Settings und hoher Auflösung spielbar war mit vorhandener Hardware.

Die GPU konnte man schon immer überfordern.
 
  • Gefällt mir
Reaktionen: florian., Baal Netbeck, BeowulfAgate und 5 andere
upscaling erlaubt den entwicklern bei der optimierung zu schlampen. doom eternal war das letzte AAA spiel, das wirklich anständig optimiert wurde.

die meisten aktuellen AAA spiele sind nur irgendwelche hingerotzten multi-plattform ports, die zu release erst einmal 3 wochen lang hotfix patches brauchen, damit das geraffel nicht alle 10 minuten abstürzt. die anderen spiele sind teilweise indietitel, bei denen die optimierung auch nicht unbedingt höchste priorität hat.

letztendlich subventionieren gamer durch die teure hardware die mangelhafte optimierung bei den studios.
 
  • Gefällt mir
Reaktionen: GeCKo127, Col. Jessep, PegasusHunter und 2 andere
Computerlein47 schrieb:
Leistungsfähigkeit der Hardware den softwaretechnischen Möglichkeiten (Unreal 5 Engine usw.) aktuell nicht mehr hinterherkommt?
Man kann auch mit einem UE4 spiel eine aktuelle highend karte zu boden ringen. Aber im vergleich zu früher ist der anspruch an Bildrate höher geworden. Auch ist die Auflösung 4k Marktfähiger für Gamer geworden. Und manchmal gehen einfach 4k native + 60-120fps , max grafik einfach nicht. Wobei Max preset auch häufig einfach nur Gardware frisst ohne richtigen mehrwert. War damals teils auch so. Nur jetzt kommen zu den ganzen anderen spielereien auch noch RT dazu. Und mit RT ist man immer noch am Anfang. Und max settings beinhaltet nunmal häufig RT. Und genau dafür gibt es die Upsampler dlss/fsr/xess.


Es gab auch damals immer spiele wo in max preset keine 60fps erreicht wurden selbst mit highend karten nicht.
 
  • Gefällt mir
Reaktionen: kachiri
Software kann beliebig ressourcenfressend gestaltet werden. Wenn irgendwas berechnet wird (im fall vom Games eine Spielewelt) dann muss die Berechnung an die verfügbaren Ressourcen angepasst werden. Auch vor 20 Jahren gab es schon Probleme. Beispiel: die ID Engine von Half-Life (usw.) konnte sehr gut Innenräume darstellen. Wenn man im Editor aber zu große Sichtweiten zugelassen hat, ruckelte es sofort. Delta Force mit einer Voxel Engine konnte recht flüssig große Aussenwelten darstellen, kam man aber zu einem Gebäude mit Innenraum, hat es stark geruckelt.

Auch damals wäre bessere Grafik möglich, aber nicht sinnvoll gewesen.
 
Computerlein47 schrieb:
Früher gab es das auch nicht, Spiele liefen immer in der nativen Auflösung und potente Karten konnte diesen auch in max. Details und max. Auflösung bei guten Frameraten darstellen.
welche ist denn die "native" auflösung? und was genau ist "max. auflösung"? auch "früher" konnte man mit "max. details" in genug (AAA-)games jede zum kaufzeitpunkt erhältliche graka in die knie zwingen.
 
  • Gefällt mir
Reaktionen: Sirhaubinger
Computerlein47 schrieb:
mich interessiert, warum diese ganzen Bildskalierungsverfahren wie FSR, XESS oder DLSS in den letzten Jahren so massiv an Bedeutung gewonnen haben. Früher gab es das auch nicht, Spiele liefen immer in der nativen Auflösung und potente Karten konnte diesen auch in max. Details und max. Auflösung bei guten Frameraten darstellen.
Ganz einfach. Früher hattest du eben ein Crysis. Und das lief wie n sack Kartoffeln auf mehreren Generationen.
Dank FSR und DLSS kannst du Grafikpracht genießen. Das Problem sind weniger die GPUS, sondern mehr die Kombination. Wenn ein Softwareentwickler weiß das FSR und DLSS genutzt werden kann siehe Cyberpunkt, dann kann er halt auch die Grafik aufbohren bis zum nimmer wiedersehen. Gibt es die techniken nicht, sehen die spiele auch nicht so gut aus oder laufen mit 2 Frames die Woche.

Die GPUS sind schon massiv leistungsstärker als früher, nur mittlerweile zockt man auf größeren Auflösungen, hat mehr Grafik Optionen was letztendlich dank FSR und DLSS auch nutzbar ist. Oder Kurz, Cyberpunkt und co, oder alle Grafikmonster wären nichts weiter als Crysis Debakel die über Ewigkeiten niemand Vollgas zocken könnte. Du kannst aber selbst testen. Nimm eine Grafikkarte von früher, teste nativ, und eine von heute, und teste nativ. Leistungstechnisch sind heutige gpus jedenfalls stärker, aber auch die titel werden fordernder weil sie eben auf solche Techniken zurückgreifen können.

PS: Ich weiß, Crysis ist ein schlechtes Beispiel, aber ihr versteht was ich meine.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Pro_Bro
duskstalker schrieb:
upscaling erlaubt den entwicklern bei der optimierung zu schlampen. doom eternal war das letzte AAA spiel, das wirklich anständig optimiert wurde.

Diese Vermutung habe ich schon seit längerem.

Wenn ich so an die letzten Unreal-5-Titel zurückdenke, ich ich ausprobiert habe (z. B. Still Wakes the Deep, Robocop), die waren alle total schlecht optimiert.

Doom Eternal erreichte damals auf meiner alten GTX 1660 TI noch sehr ordentliche Framerates ohne Upscaling (was diese Karte ohnehin nicht kann).
 
Die Verfahren ersetzen das TAA der "nativen" Auflösung, können dies Qualitat aber viel besser.

Die nebenher dadurch freigewordene Leistung wird genutzt um Spiele grafisch noch besser zu machen.
Es ermöglicht außerdem auf max Settings zu spielen und den FPS Verlust abzufangen ohne optische Einbuße, statt einfach die Settings runterzusetzen. Braucht man die Power nicht, kann man dadurch andererseits Strom und Abwärme drosseln. Wobei man dann zwischen den Möglichkeiten noch unterscheiden kann, bei FSR macht es Qualitativ vielleicht manchmal Sinn doch lieber die Details runter zu stellen, jedenfalls haben einige AMD User es so geschrieben hier.

Zum informieren:
https://www.computerbase.de/2024-01/upscaling-faq-nvidia-dlss-amd-fsr-intel-xess/

Aus meiner Sicht ist das bereits seit Jahren Standard, bzw. seit DLSS2 ordentlich nutzbar.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Das war doch schon immer so. Früher haben wir mit 20 Bildern gespielt. Was aber, dank CRTs, eine andere Wirkung hatte.

Trennt man sich von dem Zwang, jedem Hype hinterherzurennen, erkennt man schnell, dass es bereits mehr als genug wunderbare, bezahlbare und vor allem durch gepatchte Spiele gibt.

Insbesondere AAA-Titel haben für mein Dafürhalten überwiegend keinen Stil oder Charme mehr.
 
  • Gefällt mir
Reaktionen: BeowulfAgate, Sirhaubinger und kachiri
dazu muss gesagt werden das es sich dabei nur um wenige einstellige % an spielen handelt auf die Menge bezogen die jährlich auf den markt geworfen werden
 
Zwirbelkatz schrieb:
Das war doch schon immer so. Früher haben wir mit 20 Bildern gespielt.
Sag das nich zu laut, früher haben mit 25 fps in crysis gereicht und ich war happy.... heute wären nach einigen aussagen einige hier daran gestorben..... wenn man den fps und hz blabla glauben schenken darf.
Hohe FPS sind gut, aber ich finde die Thematik wird immer so dermaßen dramatisiert....
 
  • Gefällt mir
Reaktionen: Gigaherz und Sirhaubinger
Zwirbelkatz schrieb:
Das war doch schon immer so. Früher haben wir mit 20 Bildern gespielt.
Naja, 20 FPS habe ich damals schon nicht als ganz flüssig empfunden, aber 30 FPS waren damals der Goldstandard, das stimmt. Heute nicht mehr vorstellbar, ich könnte nichts mehr mit 30 FPS spielen.
 
Ich würde mich bei neuen AAA titel mal auf neue IP‘s freuen.

darum schauen ich häufiger bei kleineren spielen rein, die gefühlt einfach mehr Liebe erfahren und häufig auch mal etwas neuere ideen bringen.
 
Zurück
Oben