Sind heutige Grafikkarten nicht mehr leistungsfähig genug für native Auflösungen?

gidra schrieb:
und wählen bewusst die Skalierung statt nativ
Jop, wenn ich mehr FPS will. Viele sind komplett Ahnungsloß und stellen einfach alles hoch, weil hoch ist ja mehr Qualität. hört man immer mal wieder.

Skalierung schön auf Performance stellen :D
 
gidra schrieb:
Bei Nvidia gabs mal eine Option in den Treibern, wo man bis zu der 4-fachen der nativen Auflösung einstellen konnte. Frass Leistung, GPU Speicher bei gleich bleibender Bildqualität. In etwa so, als wenn man eine 192 kbs mp3 in 1509 DTS umkodieren würde.
So einfach ist es aber nicht, solange deine Hardware das mitmacht bringt das je nach Spiel schon vorteile - wenn das Spiel nen kack oder kein AA hat, dann hilft es dir schon. Und das gabs nicht nur bei Nvidia, man könnte sagen bei "allen" (sind ja nur 2 gewesen "damals") ob Intel das auch im Treiber hat weiß ich nicht, vermutlich schon.
 
Doch, habe es ausgiebig getestet. Niemals sah ich einen Unterschied. Welches Spiel hat kein AA?

Trotz allem, liegt es an den Spieleentwicklern selbst. Die Spiele sind nicht optimiert, kommen oft roh raus. Licht, Schatten und Effekte wurden früher manuell angepasst. Deshalb liefen die auch super mit mittelmässiger Hardware. Die höhere Auflösung ist jedenfalls nicht der Grund, weshalb die Spiele so gefrässig wurden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Baal Netbeck
Ok, kann ja sein. ich habe schon unterschiede erkannt. Kann ja jeder einstellen wie er möchte. Bei mir wars ne Radeon Karte, der Unterschied war offensichtlich in meinen Augen. Nach deiner Beschreibung war es ja bei dir Nvidia, aber das sollte ja keinen Unterscheid machen im Ergebnis. (Oder hat Nvidia bei der Option geschlampt und es war Buggy?)
 
Computerlein47 schrieb:
Früher gab es das auch nicht, Spiele liefen immer in der nativen Auflösung und potente Karten konnte diesen auch in max. Details und max. Auflösung bei guten Frameraten darstellen.
Ja so mit 30Hz lief Tombraider in Full-VGA (640x480) auf der Voodoo völlig flüssig.


Auf allen anderen Karten langsamer und unter Software ruckelig und verpixelt.

Heute sieht das anders aus - in jeder Hinsicht.


Zwirbelkatz schrieb:
Insbesondere AAA-Titel haben für mein Dafürhalten überwiegend keinen Stil oder Charme mehr.

Ja, leider.
Der Glanz der alten Tage ist weg und der Neuheitswert längst verloren geangen.

Neulich hab ich einen Hoffnungsschimmer gesehen: Apocryph.
Dachte ich jedenfalls.
Es hätte ein guter Heretic / Hexen Nachfolger werden können.

Aber man hat so fast alles verbockt, was nur ging.
Angefangen von der gruseligen Steuerung über das verwirrende Leveldesign bis zum völlig daneben gegangenen Gegnerdesign.
Nach dem ersten halben Level habe ich entnervt abgebrochen.

Lieber lege ich den EDuke 32 noch mal aufs Gamepad und dann fliegen die Monster nur so durch die Raumstation mit punktgenauem Fadenkreuz.
Oder D' Sparil und seinen Konsorten geht es ans Leder in Heretic in vollem Doomsday-Glanz.

Auf geht's!
 
Computerlein47 schrieb:
Spiele wie Half Life, Starcraft 1, Baldur´s Gate, die kamen alle fertig entwickelt auf den Markt, waren größenteils bugfrei, brachten oft ganz neue, innovative Spielkonzepte und waren allgemein von einer sehr hohen Qualität.

Die kamen übrigens alle innerhalb weniger Wochen/Monate raus. Ich füge in diese Reihe noch Thief, Grim Fandango, Unreal, Rainbox Six, Sanitarium, Falcon 4.0, Freespace, Fallout II, F1 Racing Simulation ein. Alles Games, die Mitte bis Ende 1998 erschienen. Aber das ist das Paradoxon: Mit dem Aufwand stieg sowohl die Entwicklungszeit als auch die Komplexität (Stichwort Bugs/Stabilität). Gleichzeitig gibt es nur noch wenige Studios, die hier in der Spitze überhaupt investieren können -- selbst ein Doom³ wurde noch von ~20 Mann gemacht. Kein Wunder, dass sich heute alles wie ausgehungert auf den nächsten brauchbaren Hit stürzt.

Hier werden ganze Lebenszeiten in ein einziges Projekt investiert, weshalb es längst Gegenbewegungen gibt. Ja, mitunter komplette Generationen an Hardware übersprungen. Entsprechend werden Kinder, die zu Skyrim gezeugt wurden, bereits den Führerschein haben, wenn der Nachfolger endlich zu Potte kommt.

Aber immerhin wird er bestimmt ganz hübsch aussehen. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
gidra schrieb:
Schon lange sehe ich aber keine wirklichen Verbesserungen bei der Grafik, auch bei UE5 nicht. Jedenfalls nichts, was die höhere Anforderung rechtfertigen könnte.
Dachte ich auch lange, aber für mich hat der "neue" Laptop mit 4K Display den Unterschied gemacht. Was vorher auf 1440p gefühlt schon gut aussah, aber nicht signifikant besser als früher, macht mit 4K dann deutlich mehr her.

Mit 4K sehen Stoffe auch aus mittlerer Distanz nach dem richtigen Muster aus und nicht nach farbmatsch... Auch mehr Polygone fallen mit 1440p erst auf wenn man näher ran geht und mit 4K schon früher.... Halbtransparente Kleidung in CP2077 kann erst in 4K realistisch aussehen usw.

Ich denke die neuen Spiele haben schon eine bessere Optik, die aber erst mit der Auflösung hervorsticht.

Ob sich das für die Spielerfahrung lohnt ist ein anderes Thema. ;)

Ich bin(nach kurzer Gewöhnungsphase )mit einem Warcraft 3 im Original glücklich...oder mit Baldurs gate 2...oder mit Dark Projekt 1

Spielspaß sollte immer über der Grafik stehen!
Aber ich sehe schon die Fortschritte, die es weiterhin gibt.

gidra schrieb:
Damit meine ich, dass DLSS und FSR an sich keine bessere Bildqualität als in nativ liefern können
Jain, natürlich werden über upscaling Infos dazugedichtet, was erstmal schlechter sein muss.

Aber DLSS kann andere Aspekte der Bildqualität verbessern, was je nach Geschmack in Summe besser sein kann.

TAA oder andere temporalen Varianten helfen gegen Texturflimmern usw...machen aber das Bild unscharf und da hilft auch kein nachschärfen, da das seine eigenen Artefakte erzeugt.

DLSS schafft es meist das flimmern zu verhindern und trotzdem scharf zu sein.

Auch Kantenglättung für alle Bildbereiche ist mit drin. MSAA kann nicht alles glätten.....SSAA kostet extrem Leistung.

DLSS erhöht noch die FPS und das hat ja auch eine bessere Schärfe in Bewegung zur Folge.

So entscheide ich mich je nach Spiel durchaus für DLSS quality um TAA zu entkommen.
Ist ja teilweise gar nicht anders zu deaktivieren.:(
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
TAA oder andere temporalen Varianten helfen gegen Texturflimmern usw...machen aber das Bild unscharf und da hilft auch kein nachschärfen, da das seine eigenen Artefakte erzeugt.
Es gibt kein Spiel, mit welchem Reshade nicht läuft. TAA und Lumasharpen laufen perfekt zusammen. Kostet kaum Leistung und je nach Spiel, lässt sich teils extrem aufwerten. Mit einer möglichen Überschärfung muss man dann leben, aber es ist ein Kompromiss, den ich gern eingehe.
Baal Netbeck schrieb:
Dachte ich auch lange, aber für mich hat der "neue" Laptop mit 4K Display den Unterschied gemacht. Was vorher auf 1440p gefühlt schon gut aussah, aber nicht signifikant besser als früher, macht mit 4K dann deutlich mehr her.
Du schreibst eher von der stark gestiegenen Pixeldichte und nicht von der Auflösung an sich. Doch dafür muss man, wie immer, die notwendige Hardware erst einmal besitzen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
gidra schrieb:
TAA und Lumasharpen laufen perfekt zusammen. Kostet kaum Leistung und je nach Spiel, lässt sich teils extrem aufwerten.
Mus ich eventuell in mehr Spielen probieren. Wo ich massive Probleme hatte(a plague tale requiem) hat mir am Desktop PC ein FSR Mod geholfen. Kommt nicht gegen DLSS an, aber so viel besser als TAA.

gidra schrieb:
Du schreibst eher von der stark gestiegenen Pixeldichte und nicht von der Auflösung an sich.
Nein ich meine schon die Auflösung.
Die Pixeldichte ist eine Sache des Betrachtungsabstandes.
Wenn die Auflösung nicht ausreicht um eine Struktur ausreichend darzustellen, dann kann die Pixeldichte nix tun.
 
Computerlein47 schrieb:
Lässt man diese "Upscaling-Tricks" weg, haben sogar sehr leistungsfähige Karten mit manchen Settings und Auflösungen bei diversen Titeln Probleme, ordentliche Frameraten zu erzielen. Manche Karten erweisen sich dann sogar als fast unbrauchbar.
Das kann ich so unterschreiben. Vor 20 Jahren lief Crysis mit einer Gecube X1950XT AGP flüssig. Heute wird sehr oft die Unreal Engine 4 / 5 verwendet. Die läuft beschissen ganz besonders bei Spielen, wo es um schnelle Bewegungen geht.
Und noch weiter vorher haben die Entwickler ein Update fur Glide für die 3dfx Karten rausgebracht. Nie wieder lief etwas so flüssig, verzögerungsfrei und direkt wie unter Glide.
 
Ja nun, kann man alles hassen und so. Das ist leider nicht zu ändern. Die alten Titel laufen halt noch wie früher.

Und es gibt auch neue Titel, wo du nicht n arm und n Bein hergeben musst (Niere darfste behalten, die ist schon durch die ganzen Medikamente verseucht - nichts mehr wert :-) ) und um es weiter benutzen zu dürfen schön regelmäßig dein Blut hergeben :-) . Also eben viele Titel, die auch mit der älteren Hardware 1a laufen und wo die Preise auch nicht so abgedreht sind. Vorallem erlauben sich da auch viele nicht so abgedrehte Monetarisierung über die Zeit.

Man müsste sich halt auch entsprechend umsehen.
Ergänzung ()

Clonedrone schrieb:
Nie wieder lief etwas so flüssig, verzögerungsfrei und direkt wie unter Glide.
Das sehe ich entschieden anders. mit um die 30 fps hat das ganze nur die schmierende Wirkung der CRT (die Leuchtpunkte, die nachleuchten nach dem bestrahlen) gerettet.
Das hat alles schön übergeweicht. Immerhin hast du wohl aber damit recht, das mit damals nicht billiger aber passender Hardware dann die FPS wenigstens regelmäßig genug kamen.

Heutzutage erlebe ich auch super smoothes Spieleerlebnis. wenn man genug FPS hat dann noch Framegeneration anschalten bringt noch das extra an smoothness (verbessert nicht die Maus-Bildschirm latenz, aber deswegen hat man einfach genug FPS schon vor dem einschalten..)

Damals wie heute gilt du brauchst halt die passende Hardware um etwas flüssig zu bekommen. aber wenn die entwickler fehler machen ruckelts halt trotzdem unabhängig der Hardware.

vieles wie sich arbeit sparen aus gründen etc. wurde ja schon angesprochen. Geht am ende auch immer ums geld. Manchmal (nicht bei AAA) ist auch etwas passion dabei.

Edit:
Versteh mich auch richtig! Ich will die Hardware damals nicht schlecht reden, aber überhöhen aus nostalgie ist auch falsch. Genauso Heute, es gibt mehr Spiele als jemals zuvor (natürlich, ist ja normal) und auch eine recht große vielfalt. Und man kann sich eben auch aussuchen was man dann Zockt. Man muss halt nicht AAA kaufen und Zocken, nur weil es AAA ist...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bluna
Alexander2 schrieb:
Das sehe ich entschieden anders. mit um die 30 fps hat das ganze nur die schmierende Wirkung der CRT (die Leuchtpunkte, die nachleuchten nach dem bestrahlen) gerettet.
Erzähl mir nix vom Pferd. Hier steht neben mir noch ein Slot A mit Diamond Monster 3d II, auf dem ich ab und zu Quake 3 und Unreal Tournament spiele. Aktiviert man Direct 3d oder OpenGL in Unreal Tournament, ist der Input deutlich schlechter. Und es sieht auch nicht verwaschen aus, denn genau das braucht man nicht im Shooter.
Alexander2 schrieb:
Heutzutage erlebe ich auch super smoothes Spieleerlebnis. wenn man genug FPS hat dann noch Framegeneration anschalten bringt noch das extra an smoothness (verbessert nicht die Maus-Bildschirm latenz, aber deswegen hat man einfach genug FPS schon vor dem einschalten..)
Bei Spielen, wo schnelle Reaktionszeiten gefordert sind, brauche ich die niedrigsten Latenzen und nicht nur Blender fps.
Das ist doch genau das, was CB im Test mit FG bemängelt hat. 150 fps, aber es fühlt sich nicht so an.
 
Ich sehe das Problem garnicht in den Engine‘s. Sondern eher an den vorstellungen der Entwickler. Kein Entwickler wird gezwungen ein extrem Preset anzubieten welches kaum mehrwert bietet(was mehr als häufig passiert) Um auch highend karten in die knie zu zwingen. Es ist natürlich auch kein spieler gezwungen dieses zu benutzen 😉
 
  • Gefällt mir
Reaktionen: Alexander2
Ich muss sagen, das mit den Aussagen zur OSD Software kann ich unterstützen.

Allerdings gibt es Spiele, bei denen OSD quasi zum Spiel gehört hat, siehe Counterstrike.
Ja es gibt Leute, die sagen man Brauch 250+ FPS aber das ist dummes Geschwätz, das nur für die TOP Spieler in dem höchsten Turnieren gilt.

Aber der Gefahr ausgesetzt zu sein, dass der Spot beim Deffen oder Rushen derbe gesmoked wird, und die FPS unter die 80er Marke rutschen von ca. 150 kann einem schon den Moment merklich versauern.

Daher hatte man Standardmäßig net_graph immer als Startparameter in der Config um so etwas zu messen.

Singleplayerspiele hingegen müssen meiner Meinung nach nur 30-60FPS stable haben um Spielgenuss abliefern zu können.

Ich glaube, ich bin eh immer hart am unteren Rand gewesen, daher war ich froh, wenn ich überhaupt mit zocken könnte, ohne dass meine Kartoffel von Kumpels als untauglich auf dem Kompost gewandert ist.
Und wenn es wirklich um gemeinsamen Spaß ging und die Hardware es nicht hergab, dann halt 640x480.
Juckte keinen damals, Hauptsache daddeln.
 
Clonedrone schrieb:
Aktiviert man Direct 3d oder OpenGL in Unreal Tournament, ist der Input deutlich schlechter.
Solche Unterschiede gabs schon immer und das hat auch teils massiv mit der implementierung im Spiel zu tun.
Im Endeffekt heutzutage DX12 (wenns denn sein muss) / Vulkan!
Und doch ich sag dir jetzt was für nen Pferd du hast :D
Clonedrone schrieb:
was CB im Test mit FG bemängelt hat. 150 fps, aber es fühlt sich nicht so an.
Wurde es wirlich bemängelt? Oder nur als Fakt hervorgehoben? wer ein bisschen weiß wie das ganze funktionieren soll dem ist klar, das das garnicht anders hätte sein können. Was es aber amchen soll und auch tut (bei mir) das Flüssigere Bild.. wird erreicht.

Du kannst nem LKW auch nicht vorwerfen, das er nicht wie nen F1 Rennwagen abgeht. Das ist nur weltfremd oder unwissen.
Edit:
verstehe richtig, ich will fg nicht besser machen als es ist aber auch nicht schlechter als es ist. ich weiß, das es etwas Latenz addiert, ich weiß, was es mir bringen kann, wenn richtig implementiert. Und je nach Spiel aktiviere ich es deswegen.

Edit:
Ach so, auch mein Arbeitskollege zum Beispiel hat mir erzählt, er kann den Unterschied zwischen 60 und 144Hz nicht warnehmen.. mag sein, da kann man dann einfach auch nicht helfen, das ist dann eben so.. da bringt natürlich auch fg kein mehrwert.. also wenn man nichts davon sieht. (nur mal so noch als extra nebenschauplatz)
Ich ziehe auch in betracht, das es wirklich so sein kann. Ich bemerke schon den unterschied, ganz besonders wenn es von 240Hz wieder zurück auf 60 ginge.
 
Zuletzt bearbeitet:
Danke 😂
 
Computerlein47 schrieb:
Kann man nun daraus schlussfolgern, dass die Leistungsfähigkeit der Hardware den softwaretechnischen Möglichkeiten (Unreal 5 Engine usw.) aktuell nicht mehr hinterherkommt?
Nein, die Hardwareentwicklung ist da weniger das Problem.
Bzw. ist sie genau das Problem, aber nicht weil sie nicht leistungsfähig genug ist, sondern weil dessen Entwicklung zu schnell voranschreitet..
Das weckt Begehrlichkeiten und schürt teils unrealistische Erwartungen bei den Gamern.

Die Entwicklung eines Spiels dauert locker 5-10 Jahre, oft länger.
In der IT eine verdammt lange Zeit, in der sich fast jährlich die Hardwarearchitektur ändert und die Anpassungen in der entwicklungsumgebung erfordern, damit man die neuen Features überhaupt nutzen kann.
Beispiele dafür sind z.B. Raytracing, DLSS oder - ganz aktuell - FG & Liquid motion & Co.

Man kann auch nicht mal eben mitten in einem Projekt alles wieder umkrempeln, nur damit die neusten Features, die diese Hardware nun unterstützt auch gleich mit im Spiel sind, nur weil manche jetzt danach schreien.
Das alles kostet unglaublich Zeit und treibt außerdem die Entwicklungskosten enorm in die Höhe.

Alleine durch schnellere Hardware läuft ein Spiel nicht schneller, sondern sorgt eher für noch mehr Probleme.
Siehe GTA, Stalker oder Fallout. Alles Spiele, die auf älteren engines für ältere Hardware gebaut wurden, und auf moderner Hardware Probleme machen, während sie auf alter meist einwandfrei laufen.

Also müssen wir Kompromisse machen, und das geht oft zulasten der Zeit für die Optimierung, oder ist schlichtweg nicht mehr möglich, weil es eine komplette Überarbeitung des Projekts erfordern würde.


Computerlein47 schrieb:
Werden sich diese Upscaling-Techniken zukünftig als Standard im Gaming durchsetzen. d. h. werden Spieleentwickler davon ausgehen, dass ohne diese gar keine ordentlichen Frameraten mehr erzielt werden können?
Ja.
Da die Ansprüche und Erwartungen der Gamer an die neue Hardware auch zukünftig steigen werden, und die Möglichkeiten in der Gameentwickling sehr begrenzt sind, ist das zu erwarten.

Zudem ist die überwiegende Mehrheit der Spieler weder Willens noch in der Lage, sich jedes Jahr ein neues High-End System zu kaufen.
Das sind letztendlich auch die Kunden, die die Entwicklungsstandarts vorgeben, und für die Spiele letztendlich entwickelt werden.
Man entwickelt keine Spiele nur für Enthusiasten. Das wäre dumm.

Alleine deswegen schon wird sich upscaling als fester Standard etablieren.
 
Zuletzt bearbeitet:
Also ich stelle fest, dass DLSS mit meiner RTX 3060 TI (MSI Gaming X Trio) wirklich sehr gut funktioniert, habe es nun bei einigen Titeln getestet, ich sehe keinen Unterschied zu Nativ.

Einerseits tolle Sache, andererseits auch Wahnsinn, dass die Karte ohne DLSS bei den meisten Titeln schon in Full HD zu kämpfen hätte.

Ist jetzt sicherlich nicht die beste Karte, aber so alt ist die ja auch nicht. Ich glaube sogar die MSI Gaming X ist noch einen Zacken flotter als das Referenzdesign und recht nah bei der RTX 3070.

Bei meiner vorigen Karte (GTX 1660 TI) musste ich mangels DLSS immer auf FSR zurückgreifen und da war die Bildqualität doch an manchen stellen schlechter.

Meint ihr, dass Unreal 5-Spiele in Zukunft eher noch besser optimiert werden?

Robocop, einer der ersten Unreal 5-Titel, den ich die gespielt hatte, war schlecht optimiert und lief auf meiner GTX 1660 TI damals schon recht schlecht.
 
Zurück
Oben