Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark

.Sentinel. schrieb:
Allein der Ausdruck "native" Auflösung lässt mir bei den aktuellen Machwerken mehrfach Schauer über den Rücken laufen.... nebst den Artefakten, die man sich mit "nativer" Auflösung an Bord holt.
Was zur Hölle redest du da eigentlich...?
Die "native" Auflösung entspricht der Anzahl der physikalisch digitalen Pixel des Monitors.
In dieser rendert meine Grafikarte.

.Sentinel. schrieb:
Nein- Weil hier seitenweise darum diskutiert wird (unter Deiner Beteiligung), dass man sich Grafikkarten kauft, damit es nicht mehr ruckelt oder es eine schönere Grafik gibt.
Bei mir ruckelt nix und die Grafik ist schöner als vorher oder ich hab mehr fps - je nach Spiel.


Mal ernsthaft, wieso stört es dich wenn ich das Spiel in nativer Auflösung spielen möchte. Die einzigen die hier ein Theater veranstalten, seid ihr die ihr nicht akzeptieren könnt oder wollt, dass nicht jeder euren DLSS Gott anbeten will.

Ich hab genug Testberichte gelesen, Bilder gesehen und Videos geschaut um sowohl die durchaus positiven Seiten, als auch die negativen Seiten gesehen zu haben.

Wenn das irgendwann mal ausgereift ist, werd ich es womöglich verwenden. Das gilt sowohl für DLSS/FFSS als auch RT.

Bisher hat jede einzelne der proprietären NV-Gottheiten Ihre Zeit gebraucht, dann war auch genug Leistung da, dass man sich nicht mehr um jedes fps prügeln muss. Das wird diesmal nicht anders sein.

Stell dir vor, ich hab auch PhysX ohne NV Hardware überlebt ;)
Und heute? Läuft das auf jedem Taschenrechner.

.Sentinel. schrieb:
Ja- Da die Entwickler oftmals immernoch zu faul sind, die Leitfäden von NVIDIA für eine Integration zu befolgen. Das ist aber nicht das Problem von DLSS 2.0
Und wieso sollte mich jetzt jucken, wer das verbockt..?
Das Ergebnis auf meinem Bildschirm ist das was mich juckt, und das ist derzeit ohne DLSS/FFSS das bessere.
Und komm mir nicht mit irgendwelchen Standbildvergleichen ;)

btw: so wie ihr euch anstellt wenn man es wagt etwas gegen euren DLSS-Gott zu sagen, seid Ihr wohl selbst Aktionäre ;)
 
Fuchiii schrieb:
Bei mir ruckelt nix und die Grafik ist schöner als vorher oder ich hab mehr fps - je nach Spiel.
Weil du vermutlich auf RT verzichtest oder in FHD (bei dem Monitor unwahrscheinlich) spielst oder <50fps ok sind.
Und spätestens bei path traced Spielen wie Q2 RTX oder Minecraft RTX wird es je nach Auflösung unspielbar.

Und es gibt weitere Use Cases, bei denen auch aktuelle Grafikkarten ohne DLSS am Limit sind: Mein Cousin spielt mit 3 Displays an einem Sim Rig. Da bringt DLSS bei F1 2020 z.B. auch sehr viel. Er (und viele andere) wartet nur darauf, bis DLSS auch für ACC kommt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Zwiebelsoße und Laphonso
Fuchiii schrieb:
Was zur Hölle redest du da eigentlich...?
Die "native" Auflösung entspricht der Anzahl der physikalisch digitalen Pixel des Monitors.
Das ist bereits die von Quantifizierungsartefakten durchsetzte Rasterauflösung, Die hat mit "nativ" nichts zu tun, weil Engines das Spielgeschehen in modernen Titeln mit unterschiedlichsten Auflösungen (auch zeitlich) das Bild auf den Monitor/Fernseher "pfuschen".

Fuchiii schrieb:
In dieser rendert meine Grafikarte.
In diesE rendert Deine Grafikkarte.

Fuchiii schrieb:
Mal ernsthaft, wieso stört es dich wenn ich das Spiel in nativer Auflösung spielen möchte.
Das kann jeder machen, wie er will. Man kann auch im Sommer die Kühlschranktür offen stehen lassen, damit es kühler wird...

Fuchiii schrieb:
Die einzigen die hier ein Theater veranstalten, seid ihr die ihr nicht akzeptieren könnt oder wollt, dass nicht jeder euren DLSS Gott anbeten will.
Die Ausdrucksweise allein offenbart ja leider schon die Motivation der Bewertung. Es geht hier um keinen Gott, sondern um eine neue, deutlich effizientere Art des Rasterns.

Diejenigen, die hier das Theater veranstalten sind diejenigen, die mir nicht erklären können, warum sie eine Technik ablehnen, die bei überlegener Bildqualität und Antialias noch XY% an Zusatzperformance rumkommen.

Ja- Ich weiß... und das betone ich immer wieder. Es wurde bei DLSS oft gepfuscht und V1 war für die Tonne.
Das liegt aber nicht an DLSS, sondern an der mangelhaften Integration.

Fuchiii schrieb:
Ich hab genug Testberichte gelesen, Bilder gesehen und Videos geschaut um sowohl die durchaus positiven Seiten, als auch die negativen Seiten gesehen zu haben.
Dann sollte das Potenzial ja klar sein. Dann frage ich mich allerdings, wieso Du das schlechtere native Bild einem Bild mit Supersampling vorziehst.

Fuchiii schrieb:
Wenn das irgendwann mal ausgereift ist, werd ich es womöglich verwenden. Das gilt sowohl für DLSS/FFSS als auch RT.
Da sind wir beim Punkt. Nur weil einige Studios das fehlerhaft integrieren, heisst es nicht, dass die Technik nicht ausgereift ist. Und genau da bitte ich eben, sehr sorgfältig zu differenzieren.

Fuchiii schrieb:
Bisher hat jede einzelne der proprietären NV-Gottheiten Ihre Zeit gebraucht, dann war auch genug Leistung da, dass man sich nicht mehr um jedes fps prügeln muss. Das wird diesmal nicht anders sein.
Ich hoffe doch inständig, dass man nicht den Fehler begeht, nur aufgrund des Unverständnis von Usern überlegene Techniken zu beerdigen.
Was soll das für einen Sinn ergeben gegen etwas zu sein, was dem User DURCHWEG Vorteile beschert.

Da Du hier im Absatz eine Marke ins Spiel bringen musst, wird auch hier die Motivation klarer.
Lasst doch mal diesen sch.... Markenfetisch/Fokus aus den Threads raus. Bitte, bitte, bitte.
Fuchiii schrieb:
Stell dir vor, ich hab auch PhysX ohne NV Hardware überlebt ;)
Klar- Wurdest ja auch bei zig Titeln, die Du gespielt hast (über 700 kamen mit PhysX als Physikengine auf den Mark) durch die großen Engines damit zwangsbeglückt (CPU, die irgendwann leistungsfähig/multithreaded genug waren).
https://web.archive.org/web/20200703113326/http://physxinfo.com/index.php?p=gam&f=all

Fuchiii schrieb:
Das Ergebnis auf meinem Bildschirm ist das was mich juckt, und das ist derzeit ohne DLSS/FFSS das bessere.
Na wenn Du auf Treppchenbildung und Risse in feinen Strukturen stehst und dass bei deutlich niedrigeren FPS, dann ist es wohl tatsächlich für Dich das Richtige.

Fuchiii schrieb:
Und komm mir nicht mit irgendwelchen Standbildvergleichen ;)
Stimmt, dann so richtig fies wird die Flimmerhölle der "nativen" Auflösungen erst bei Bewegung.

Fuchiii schrieb:
btw: so wie ihr euch anstellt wenn man es wagt etwas gegen euren DLSS-Gott zu sagen, seid Ihr wohl selbst Aktionäre ;)
Nein- Man geht aber davon aus, dass wenn man sich in einem Computerforum bewegt, vielleicht Technik begeisterte oder zumindest interessierte anzutreffen sind, die nicht jede neue Technik als mystisches Voodoo verteufeln?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337 und Laphonso
Ihr wollt unbedingt recht behalten, frei nach dem Motto - das liegt nicht an der Technik, das liegt an der Umsetzung.
Das ist ja Klasse! Es liegt also nicht an dem V8 das die Karre nicht ordentlich Gummi gibt, es liegt am Getriebe.
Das hilft einem ja wirklich weiter, solange man das nicht tauschen kann.

Ich verteufel garnichts. Ich sage, dass RT derzeit noch zu Leistungshungrig und DLSS zu unausgereift ist.
Und dabei ist es nunmal egal obs an der Technik, der Software, der Hardware oder der Umsetzung mangelt - es ist dann nicht zufriedenstellen. Punkt.

Einfach noch etwas warten, dann geht RT den gleichen weg wie andere Techniken - sie sind dann einfach da, OHNE dass ich dafür ne 2000€ Grafikkarte brauche.

Im übrigen habe ich bereits gesagt, dass ich die Technik Intressant finde und diese mutmaßlich nutzen werde, wenn diese irgendwann mal richtig fertig ist ;)

Damit verabschiede ich mich nun aus dieser Konversation - denn euch ist nur wichtig, dass ihr jetzt recht behaltet und da das nicht reicht müssen euch auch alle anderen zustimmen.

Kauft euch lieber ne dicke Karre fürs Selbstbewusstsein und packt euren Dödel wieder ein ;)
 
basic123 schrieb:
Dein Usecase ist in dem Fall nur für dich selbst interessant, sonst interessiert es absolut niemanden. Deswegen ist es auch unsinnig deine Vorlieben anderen indirekt aufzuzwingen oder Nvdias DLSS und RT Werbebroschüren zu verteilen. Wer AMD kauf will, soll es doch gerne tun.
Ich glaube, wir reden aneinander vorbei: Der usecae, mein persönlicher Einsatzzweck, entscheidet doch darüber, wofür ich Geld ausgebe.
Wenn ich lese oder höre "oh, mir sagte diese Technik nichts, ich hätte eine 3070 gekauft, wenn ich das mit dem DLSS realisiert hätte in Call of Duty" dann geht es mir um diese Transparenz, nämlich dass Features, die originär Auswirkungen haben auf Frames und Optik, herausgestellt werden.
Denn wir sprechen über eien Grafikkarte.

Also ist es schon wichtig festzuhalten, dass in in sämtlichen DLSS Games, die mein Genre betreffen und meinen Fokus, die Tests einen Hinweis erhalten, dass Nvidia Karten hier MEHR bieten, bessere Optik und/oder mehr Frames.

Und so sind wir bei Deinem Satz @basic123 : Wer etwas kaufen will, soll das tun, aber es wäre transparent festzuhalten, dass man z.b. in Call of Duty CW (und demnächst Blackout) aufgrund von DLSS (das man dort "so" aktivieren kann, ohne Raytracing isoliert) in den Benchmarks die erste AMD GPU - das Topmodell 6900, irgendwo bei Platz 5 oder 6 findet, und nicht auf 1 oder 2, wie man evtl vermuten würde bei einer 1000+ Euro GPU.

Das können wir in allen DLSS Games so festhalten.

Zu realisieren, dass sich die 6800XT hinter einer 2080 oder einer 2070 Super wiederfindet in diesen Games, ist für manmche evtl eine wichtige Info bei der Kaufentscheidung. Und damit sprechen wir über das Geld, das Budget, Preise und Leistung.
Ergänzung ()

Fuchiii schrieb:
dass RT derzeit noch zu Leistungshungrig und DLSS zu unausgereift ist.
RT ist leistungshungrig, und das ist erst der Anfang. Wir sind ja sogar noch im Hybrid RT und haben ausgewählte delegierte ray-Prozeduren am Start.
Der Leistungshunger wird bleiben.

Was DLSS 2.0 angeht, stimmt das mit dem "unausgereift" so nicht mehr, die Fachpresse, die Tests, auch hier bei Computerbase, hat sich das Urteil verändert.

In den jüngsten AMD reddit Threads, also der Homezone der AMD Community, nennt man DLSS 2.0 "black magic" und wartet sehnsüchtig auf eine DLSS Alternative.

Wäre das "unausgereift", wäre das nicht der Fall.

Ich stimme Dir zu, dass da aber noch mehr geht, durch alle Auflösungsskalierungen und was das upscaling betrifft. DLSS ist ja nun komplexer als nur Pixel Berechnung.

Die AI lernt, DLSS 3.0 wird kommen und der nächste Schritt.

Dass wir dank so einer Technik mehr haben von einer GPU ist doch übrigens gut?
Dank DLSS ist die "Haltbarkeit" in Sachen fps für die Turing Generation in diesen Titeln verlängert.

Mit einer 2070 kann man COD CW auch in 4K Ultra über "packe ich 60 fps?" Gefahr ballern.
Eine 5700XT packt das schon mal nicht mehr afaik (habe Video gesehen, da knackt die 5700XT nicht mal stabile 50+ fps auf 4K high über alles) , und um dieses Thema gehts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und .Sentinel.
Fuchiii schrieb:
Ihr wollt unbedingt recht behalten, frei nach dem Motto - das liegt nicht an der Technik, das liegt an der Umsetzung.
Das hat doch mit Recht behalten nichts zu tun. Es gibt ja bereits genug Software, die mit DLSS den entsprechenden Beweis liefert.
Fuchiii schrieb:
Das ist ja Klasse! Es liegt also nicht an dem V8 das die Karre nicht ordentlich Gummi gibt, es liegt am Getriebe.
Das hilft einem ja wirklich weiter, solange man das nicht tauschen kann.
Ja- Nur weil jemand das Getriebe der Karre verpfuscht, muss der Motor nicht schlecht sein.

Fuchiii schrieb:
Ich verteufel garnichts. Ich sage, dass RT derzeit noch zu Leistungshungrig und DLSS zu unausgereift ist.
RT ist nicht ZU leistungshungrig, sondern per se sehr leistungshungrig. Zu leistungshungrig worfür?
Reichen die pathtraced 4K auf 90FPS in Minecraft nicht?

Und schon wieder... Weil es schlechte Implementationen von DLSS gibt bezeichnest Du die Technik an sich als "unausgereift"?
Wie kann es dann ein Wolfenstein Youngblood geben? Die nutzen die gleich Technik und da klappt alles.
Zauberei?

Fuchiii schrieb:
Und dabei ist es nunmal egal obs an der Technik, der Software, der Hardware oder der Umsetzung mangelt - es ist dann nicht zufriedenstellen. Punkt.
Exakt- Aber das wird dadurch immernoch nicht zu einer Schwäche der Technik. Es ist einfach eine nicht den Vorgaben entsprechende Integration.

Und ja- Der Endeffekt ist der gleiche. Der Blickwinkel auf die Technik könnte unterschiedlicher aber nicht sein.

Fuchiii schrieb:
Einfach noch etwas warten, dann geht RT den gleichen weg wie andere Techniken - sie sind dann einfach da, OHNE dass ich dafür ne 2000€ Grafikkarte brauche.
Das ist aber wieder was anderes. Die Rechenleistung steigt und damit die Grafikleistung. Das ist völlig RT- unabhängig.

Fuchiii schrieb:
Im übrigen habe ich bereits gesagt, dass ich die Technik Intressant finde und diese mutmaßlich nutzen werde, wenn diese irgendwann mal richtig fertig ist ;)
Das ist ja legitim. Dennoch auch hier - Die Technik ist fertig und wird mit der Zeit nur noch besser werden.
Was Du meinst ist, dass Du das einsetzen wirst, wenn sie in Deinen Augen fehlerfrei umgesetzt ist.
Das ist sie im Augenblick noch bei wenigen Titeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, foo_1337 und Laphonso
https://www.computerbase.de/artikel/grafikkarten/nvidia-dlss-2-0-test.71630/

Gar so ordentlich, dass DLSS in manchen Szenen besser aussieht als mit der nativen Renderauflösung, in anderen gehen dagegen Details verloren. Es ist auffällig, wie schwankend die Qualität ausfällt.

Einzig bei sehr feinen Objekten wie zum Beispiel einem Zaun reicht die intern gerenderte niedrige Anzahl der Pixel nicht mehr aus und das Bild fängt an zu flimmern.

Denn wie ich erwähnte wird das Bild numal niedriger gerendert.

Allerdings gibt es auch eine zweite Seite, denn ohne allzu lange zu spielen oder explizit nach Fehlern zu suchen, gibt es ausgerechnet im Hauptquartier, zu dem man immer wieder zurückkehrt, teils massive Grafikfehler mit DLSS zu sehen

So kommt mit DLSS 2.0 die Kantenglättung selbst in 3.840 × 2.160 nicht an die Qualität von der nativen Auflösung heran. Das mag die Folge von der deutlich besseren Schärfe sein, allerdings flimmert das Spiel so etwas mehr.

[...]doch springt auch DLSS 2.0 immer noch gerne auf die Grafikfehler vom Spiel selbst an und verschlimmert diese deutlich.


Um nur ein paar Auszüge aus dem CB-Test zu nennen.
Natürlich gibt es auch viele Gute Seiten - und wenn Alle zusammen es irgendwann hinbekommen das auch ordentlich umzusetzen, ist es mit Sicherheit eine tolle Sache.

Andere Tests beleuchten genau dieselben Dinge. Kann man nachlesen. Die negativen Punkte sind immer die selben.

Oh und bevor jemand meckert - ist alles aus DLSS 2.0-Tests.

.Sentinel. schrieb:
dass Du das einsetzen wirst, wenn sie in Deinen Augen fehlerfrei umgesetzt ist.
Das ist sie im Augenblick noch bei wenigen Titeln.
Das ist aber nunmal das was mich als Endkunde intressiert - dich etwa nicht?
Was bringt mir eine Technik die in Spielen schlampig umgesetzt wird..? Die ist dann halt trotzdem in diesen Spielen aus.

.Sentinel. schrieb:
Ja- Nur weil jemand das Getriebe der Karre verpfuscht, muss der Motor nicht schlecht sein.
Aber ich will die Karre dann nicht haben - das Getriebe muss halt schon auch passen^^

Ich versteh den Standpunkt, aber es ist nunmal eine begrenzte Anzahl an Spielen in denen man DLSS derzeit nutzen kann. 2/3 schlampen dann noch beim integrieren. Und wenn man dann Glück hat, besitzt man nachher 1-2 Spiele, in denen die Technik wirklich Anwendung findet - weil man sie in den anderen Spielen lieber auslässt, als die Fehler mit zu nehmen.

Dass das jetzt vllt nicht die Schuld von NV oder DLSS ist, bringt niemanden weiter. Weder den Kunden noch NV.

Und auch bei RT - Control z.B. ist so dermaßen überladen worden mit RT... das kann ja Leistungsmäßig nichts werden. Erinnert mich an die Physx-Anfänge. Jedes Staubkorn musste unbedingt mittels Physx gerechnet werden.
Am Schluss hatte man dann eine Grafikkarte und eine PhysX Karte im Rechner.

Also.. spielt man einfach so wie man es bisher auch getan hat - und in 1-2 Jahren sieht das ganze dann schon anders aus.
Denn erst wenn die Fehler ausgebügelt sind und alles ordentlich in Spiele integriert wird, kann man von einer gelungenen Technik reden.

Die beste Technik wird scheitern, wenn sie zu kompliziert zum integrieren ist und/oder einfach schlampig integriert wird. Und das machen Spieleschmieden schon immer gern.
Hauptsache drin dann kann man damit werben.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Rotkaeppchen
Wolfgang schrieb:
Es ist ziemlich spannend zu sehen, wie die Auswahl der Spiele die Bewertung massiv beeinflusst. Darum ist es auch so leicht, in der Art Benchmarks nach eigenem Gusto zu manipulieren. Ich vertraue bei diesem Thema eh nur wenigen Seiten, die transparent angeben, was und wie sie messen. Ihr macht das z.B. und das ist ziemlich gut.

Nach der Aktion mit Hardware unboxed hat man auch erlebt, wer wie abhängig von Nvidia ist. Hardware Redaktionen benötigen kostenfreie Muster. Und ich befürchte, nicht alle testen wirklich unabhängig. Auch unabhängig bedeutet nicht zwingend objektiv und stimmig, Fehler passieren immer wieder, aber wenn strikte Vorgaben kommen, was gemessen werden darf und was nicht, dann wird es unschön.

Darum sollte man alle Tests immer mit einer Grundrauschen sehen und sich nicht über 10% Leistung in die Haare bekommen.
 
  • Gefällt mir
Reaktionen: Fuchiii
Fuchiii schrieb:
Ich hab genug Testberichte gelesen, Bilder gesehen und Videos geschaut um sowohl die durchaus positiven Seiten, als auch die negativen Seiten gesehen zu haben.
Und ich hab nicht nur Testberichte gelesen, sondern es auch selbst getestet und insgesamt bekommt man ohne eine schlechtere BQ in Kauf zu nehmen je nach Spiel 40 bis 90% mehr Performance - für lau.

Gäbe es das Feature für AMD Grafikkarten, dann wäre hier Partystimmung.
Da es aber Nvidia bietet, wird es schlecht gemacht wo es nur geht.
Ich bezweifle dass du dir das unvoreingenommen angesehen hast.
Ich habe meine 6900XT mittlerweile wieder zurückgeschickt, wegen Spulenfiepen und auch den V-ram in WQHD benötige ich vorerst nicht, Sonderfälle (schlechte Optimierung) mal ausgenommen.
DLSS ist mir zu viel wert und bald möchte ich Witcher 3 mit RT und DLSS zocken.
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso

Bei 7:45 sieht man, dass ohne DLSS, also in nativer Auflösung, im Hintergrund Details fehlen.
Durch aktiviertes DLSS kommen diese Details zur Geltung, und auch wenn ich bezweifele, dass ich das im Spiel wahrnehme, zeigt es doch, dass die Annahmen und Vorurteile, die einige hier zu DLSS haben, den Schritt von DLSS 1.0 zu 2.0 verpasst haben oder ignorieren.

Dass DLSS 2.0 weder umfassend noch in jeder Facette brilliant funktioniert, wissen wir auch, es ist Iteration #2, wir sind noch am Anfang mit den ML Konstruktionen der Bilddetails .

Aber sie werden zukünftig besser und damit werden sie nativer Auflösung nicht nur ebenbürtig, sogar dann - irgendwann - pauschal überlegen, weil die native Auflösung hier Grenzen hat, welche die AI umgehen kann durch die Re-Konstruktionen und Darstellung.

Ich glaube, dass manche das noch gar nicht realisieren.
Vielleicht, weil es von Nvidia kommt?

EIne Konkurrenz zwischen AMDs DirectML (?) und der Nvidia DLSS Lösung wäre das Beste, was uns passieren kann.
 
  • Gefällt mir
Reaktionen: foo_1337 und Esenel
Ich wüsste nicht welcher rationelle Grund auch gegen DSLL sprechen würde.

Bevor ich ein Game gar nicht spielen kann greife ich doch lieber auf DSLL zurück.Mal sieht es gut aus,ja sogar besser als nativ,mal etwas schlechter,wofür die Technik an sich nichts kann.

Habe auch den Eindruck,dass wenn sowas von AMD gekommen wäre die Stimmung bei Einigen hier anders wäre wenn ich sehe was für ein Wirbel von meist den Gleichen um SAM gemacht wird.Das ist doch kindisch.

Wer wirklich Interesse hat den Sachen auf den Grund zu gehen schaut es sich eh selbst an welche Karte einem persönlich mehr bringt.
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
@Laphonso
Hatten wir das Video nicht schon ein mal? Irgendwie wird immer unterschlagen, dass selbst Steve von Gamersnexus keine umfängliche Überlegenheit von DLSS sieht, sondern eine Notlösung um Leistung zu gewinnen.

Hier ein Paar passende Sätze aus dem Video:
"DLSS isn't supposed to better than native rendering, it's a trade-off image quality for performance"
"the fact that it sometimes happens to make things look better is just a bonus"
"4K with DLSS isn't as good as native 4K still"

Bin weiterhin kein grosser Fan von DLSS. In Watch Dogs Legion stört es mich z.B. weniger als in Control & Cyberpunk letztens. (Generelle Unschärfe und Artefakte) Ist also eine Sache der Implementation, habt schon recht.
Ihr tut jedoch so als wäre es der heilige Gral im Bezug auf Bildqualität und das ist es eben nicht. Performance für Optikeinbussen. Soll doch jeder für sich entscheiden, ob das einem Wert ist.

Ich warte weiterhin auf einen DLSS Modus, vielleicht Ultra Quality, welches die Vorteile von DLSS auch in nativer bzw. höherer Auflösung umsetzt. Hat aber schon seine Gründe warum Nvidia dies nicht macht...
 
  • Gefällt mir
Reaktionen: basic123, Fuchiii und Laphonso
Dezember 3080 Ultra FTW3 Ultra für 1000 weil Cyberpunk möglichst gut spielen wollte gekauft und jetzt letzten Freitag mit 200 Euro Gewinn verkauft somit hat mich meine neue 6900XT Red Devil nur 1260€ gekostet.
Hoffe AMD rückt schnell mit den neuen Features raus wie Superresulution usw.
 
  • Gefällt mir
Reaktionen: basic123 und ALDeeN1982
OZZHI schrieb:
@Laphonso

"4K with DLSS isn't as good as native 4K still"
"still" im Sinne von "yet". Wir sind im dritten Jahr von DLSS und dem "Anwendungsfall Gaming". Das ist ja quasi alles noch frisch. Die Zeit rennt für ML und AI, das ist ja der Lernprozess. Dann verschwindet auch das, was viele als "blurry" empfinden

DLSS 2.0 geht ja schon in die Richtung.
Zitat Optimumtech: " In most cases, RT + DLSS 2.0 provides a net frame-rate boost and visual improvement"

Die Frage ist nicht, "ob" diese Technologie und dieses ML Scaling irgendwann besser aussieht als die native Auflösung, sondern wann das passieren wird, und welche GPU Kapazitäten wir hier brauchen für die verbesserte Darstellung der Rekonstruktionen.

Umfassendes Raytracing z.B. in 4K wird bis auf weiteres ohne so eine ML Technik wohl kaum möglich sein ohne diese brachialen fps Einbußen.

btw der "Heilige Gral" war immer das Raytracing, so nannte es die Branche ja sogar selbst in den gfx, CAD und Engine Designerforen seit Jahren.

DLSS ist aus Gamersicht nur die Magie (und Nvidias eigene Lösung), hier die fps zu kompensieren durch eine Darstellung, die nach und nach die native Auflösung "deckt".
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ich glaube, wir reden aneinander vorbei: Der usecae, mein persönlicher Einsatzzweck, entscheidet doch darüber, wofür ich Geld ausgebe.
Wenn ich lese oder höre "oh, mir sagte diese Technik nichts, ich hätte eine 3070 gekauft, wenn ich das mit dem DLSS realisiert hätte in Call of Duty" dann geht es mir um diese Transparenz, nämlich dass Features, die originär Auswirkungen haben auf Frames und Optik, herausgestellt werden.
Denn wir sprechen über eien Grafikkarte.

Also ist es schon wichtig festzuhalten, dass in in sämtlichen DLSS Games, die mein Genre betreffen und meinen Fokus, die Tests einen Hinweis erhalten, dass Nvidia Karten hier MEHR bieten, bessere Optik und/oder mehr Frames.

Und so sind wir bei Deinem Satz @basic123 : Wer etwas kaufen will, soll das tun, aber es wäre transparent festzuhalten, dass man z.b. in Call of Duty CW...
Ja ich finde wir reden tatsächlich aneinander vorbei. Du versuchst bei jeden deiner Posts dein persönliches Nutzerprofil den anderen aufzudrücken, damit DLSS und RT unbedingt Sinn ergeben. Kein Anzeichen davon über den Tellerrand zu schauen.

Warum sollte jemand Nvidia vorziehen, der beispielsweise ausschließlich Assassins Creed, Forza Horizon 4, Civilization, Diablo und Counterstrike spielt?

Ich wette du schaffst es nicht ein einziges Argument zu bringen ohne DLSS oder RT zu erwähnen. Wenn man DLSS ausklammert, geht dir sofort das Gesprächsthema aus. Das ist entlarvend und wenig seriös. Aber du kannst uns gerne vom Gegenteil überzeugen indem du RT und DLSS kein einziges Mal erwähnst.
 
Ich hab jetzt die 2080Ti gehabt und die 3080 DLSS ist schon ein cooles Feature es hat sich schon etwas weiter entwickelt einiges sieht besser aus einiges nicht!
Gerade bei so einem Hardwarefresser in 4K wie Cyberpunk war ich froh auf DLSS zurück greifen zu können!

Jetzt hoffe ich auf eine gute Umsetzung seitens AMD bei Superresulution damit wen es mal eng wird ich auch mal mit der 6900XT darauf zurück greifen kann um die Performance weiter anheben zu können!
 
Es klingt einfach nach wie vor so, dass sich hier einige den Kauf einer GPU, die aktuell 2000+ € kostet, schönreden müssen.

Leute, seid doch einfach zufrieden und geht den anderen nicht auf die Nerven.
Und lest mal, was die anderen schreiben. Nahezu jeder schreibt hier "RT und DLSS sind interessante Dinge, aber aktuell für mich noch nicht so relevant, das kann sich aber ändern".

Wie ihr daraus eine Dauerverteidigungsschlacht für nVidia macht, ist echt lächerlich.
 
  • Gefällt mir
Reaktionen: basic123 und Fuchiii
Naja, Fakt ist halt das RT ohne DLSS schon jetzt nicht wirklich funktioniert und das wird auch die nächsten Jahre so bleiben.

Bei Nvidia funktionierts wenn überhaupt mit 1080p zumindest einigermaßen, bei AMD teils überhaupt nicht weil die Performance fehlt.
Daher ist für Raytracing DLSS quasi ein MUSS.

Ich kann jeden verstehen der gerne ohne DLSS spielt...was ich aber nicht verstehen kann ist wenn jemand behauptet 4k/1440p ohne Raytracing sehe besser aus als 4k/1440p + DLSS mit Raytracing.
 
  • Gefällt mir
Reaktionen: foo_1337
Ich stimme mit Dir größtenteils überein. Wir liegen da nämlich denke ich auch garnicht so weit auseinander.
Mein Standpunkt ist, dass man doch gegen eine Technik wie DLSS, welche mehr Details bei höheren FPS herausarbeitet, nichts haben kann.

Dein Standpunkt ist - Nützt alles nichts, wenn die Hersteller bei der Integration schlampen und das Endergebnis oftmals nicht passt.

Da sind wir auf einem Nenner. Da wird eine hervorragende Technik unnötig in den Dreck gezogen.

Fuchiii schrieb:
Und auch bei RT - Control z.B. ist so dermaßen überladen worden mit RT... das kann ja Leistungsmäßig nichts werden.
Ich weiss, was du ausdrücken willst. Nur musst Du halt immer irgendwo einen Tod sterben.

Und das hier wird erst durch eine entsprechend ausgelegte Engine möglich:

Stochastische Rendermethoden sind die Voraussetzungen für Dynamik, Physik, zerstör- und interagierbare Umgebungen mit konsistenter Grafik. Also das, was die User seit Jahren fordern.

Entsprechende Engine ist dann eben auch OHNE RT entsprechend fordernd, so dass eine 6800XT, die ja beileibe keine schwache Karte ist, in 4K bei 45FPS rumkrebst.


Fuchiii schrieb:
Erinnert mich an die Physx-Anfänge. Jedes Staubkorn musste unbedingt mittels Physx gerechnet werden.
Am Schluss hatte man dann eine Grafikkarte und eine PhysX Karte im Rechner.
Wie man am Beispiel oben sehen kann, sprechen wir hier nicht von einem "Effekt". Denn PhysX auch GPU beschleunigt wurde GPU- getrieben überwiegend als Effekt misbraucht. Gabs also 5 Partikel beim CPU Physix, gabs 500 dann mit GU PhysX.

Das hatte aber nur kosmetische Auswirkungen. Bei Control kannst du ein Holzstück aus einem Schreibtisch schiessen. Das anziehen und dann Deinem Gegner entgegenschleudern. Das sind Welten Unterschied.

Also.. spielt man einfach so wie man es bisher auch getan hat - und in 1-2 Jahren sieht das ganze dann schon anders aus.
Denn erst wenn die Fehler ausgebügelt sind und alles ordentlich in Spiele integriert wird, kann man von einer gelungenen Technik reden.
Das ist eben der einzige Punkt, an dem wir uns letztendlich reiben.

Ich sage, dass die Technik an sich ist bereits jetzt gelungen ist, sonst dürfte es wie oben erwähnt ein Wolfenstein Youngblood nicht geben. Es gibt also Firmen, die sich an die Leitfäden halten und somit ein perfektes Ergebnis hinbekommen.

Die beste Technik wird scheitern, wenn sie zu kompliziert zum integrieren ist und/oder einfach schlampig integriert wird. Und das machen Spieleschmieden schon immer gern.
Hauptsache drin dann kann man damit werben.
Wie bereits vielen bekannt habe ich solch eine Integration schon hinter mir. Deswegen ist mein Unverständnis, wie man so schlechte Integrationen hinlegen kann, außerordentlich hoch.
Es ist wirklich Easy. Es gibt nur ein par wenige Grundregeln. Aber selbst für die scheints nicht zu reichen.

Eine davon und mit die einfachste ist, dass man die Texturen gefälligst nicht anrühren soll.
Was machen die Studios? -> Lassen die Texturen im DLSS Pass mit umrechnen.
Sorry- Aber dämlicher gehts nicht.

Denn was fällt als erstes auf? -> Wenn die Texturen verwaschen sind.

Da interessiert es auch nicht, dass im Hintergrund Zäune und Feindetails in der Geometrie plötzlich fehlerlos, konsistent und Treppchenfrei über den Bildschirm wandern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, Fuchiii, Laphonso und eine weitere Person
basic123 schrieb:
Ich wette du schaffst es nicht ein einziges Argument zu bringen ohne DLSS oder RT zu erwähnen. Wenn man DLSS ausklammert, geht dir sofort das Gesprächsthema aus. Das ist entlarvend und wenig seriös. Aber du kannst uns gerne vom Gegenteil überzeugen indem du RT und DLSS kein einziges Mal erwähnst.
Du möchtest in einem GRAFIKKARTEN Thread die beiden Blockbuster Features, die seit 2,5 Jahren in der internationalen Technik- und Gamingpresse ein Thema sind, ausklammern?
Selbstverständlich kommt man an Raytracing und ML+AI Rekonstruktionen und Scaling+Sampling nicht vorbei, weil wir hier über Evolutionsstufen von Features in der Optik und im Gamingerlebnis sprechen.
Die Themen sind omnipräsent, auch hier, in diesem Forum.
Sämtliche Gaming+Technik Mags und Kanäle haben Raytracing und DLSS Features und zum Teil eigene Kategorien für die redaktionelle Begleitung.

RPS hat sogar eine ganze Übersicht dafür gebastelt:
https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games-2021

Wenn das nicht Ignoranz ist, wie nennst Du Deine Haltung dann? Ernsthafte Frage meinerseits.
Ergänzung ()

.Sentinel. schrieb:
Mein Standpunkt ist, dass man doch gegen eine Technik wie DLSS, welche mehr Details bei höheren FPS herausarbeitet, nichts haben kann.
Doch, weil es von Nvidia kommt und eine AMD Grafikkarte in diesem Segment das unterlegene Produkt ist aufgrund derzeit noch fehlender Features.
Bitte dieses Thema ausklammern, bis AMD hier auch etwas liefern kann, danke und LG

/s ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, .Sentinel. und foo_1337
Zurück
Oben