Test AMD VSR gegen Nvidia DSR

@eXEC-XTX
ich will jetzt nicht auf alles antworten was du da geschrieben hast, fehlt mir einfach die Zeit für.

Thema Micro Ruckler, schau dir mal Frame piercing an, was sich da in letzter Zeit getan hat, von wegen AMD tut da nix.

"Ich will nicht noch 10 weitere AA-Filter"
und da kommst du mir mit Nvidia? Haben die nicht vor kurzem schon wieder ein "neues" AA rausgehauen. Ich merk mir die Namen da schon lang nicht mehr...

G-sync und free sync sind im Grunde das selbe. Es ist jetzt Vesa Standard und Nvidia wird es auch unterstützen. Wo liegt hier also das Problem? Hier wurde nix kopiert, das ist schon lange in der Mache. Nur dauert es einfach länger das für alle auf dem Markt zu werfen, als sich ein Monitor Hersteller zu suchen und es "exklusiv" aka (für teuer Geld ) raus zubringen.

VSR ist einen Tag draußen und nicht die komplette Hardware und Auflösungen werden supportet, ja Weltuntergang, da kann sich natürlich nix mehr dran ändern...Auch hast es selber nie getestet und so wie die meisten hier nur den Artikel gelesen, mach dich mal locker.

btw die letzten Sätze von dir, ich will, ich will, ich will...:p wo hab ich das schon mal gehört?...mmmh :rolleyes:
 
Zuletzt bearbeitet:
vincez schrieb:
Macht Sinn. Wenn man sich explizit eine teurere Karte kauft nur um DSR zu haben in neuen Spielen, würde ich das auch anzweifeln. Kauft man aber die Karte mit dem target-performance 60fps Spiele anno 2014/2015 (sine DSR) ist es doch schön dass man DSR zumindest einsetzen kann, um alte Titel in neuem Glanz zu spielen. Ich habe da bei meinen alten Spielen oder Indie-Titeln, wo es ging, auch DSR aktiviert.

Mir persönlich wäre jetzt ein Upgrade von einem sehr großen HD TV auf einen UHD TV tatsächlich zu teuer für die paar Spiele die ich spiele und das bisl' Netflix.

Gut in bestimmten Situationen macht es dann schon Sinn, und wenn du aufm großen TV zockst ist es eh nochmal ein Sonderfall (da sehe ich auch noch keinen zwingenden Kaufgrund für UHD).

Wenn Leute allerdings 300 und mehr Euro für ne GPU ausgeben und dann aber kein Geld für nen entsprechenden Monitor haben dann verstehe ich das Konsumverhalten nicht wirklich - zu meiner Studentenzeit wäre mir das auch zu teuer gewesen, da habe ich dann aber auch 400€ für nen kompletten PC ausgegeben und nicht allein für die Graka.
 
k0ntr schrieb:
Weshalb gibt es kein VSR für die R280X aber für eine R285??
Na das wird wohl am Chip liegen. Einfach mal ein bissel warten was da noch nachgeliefert wird.
285: Tonga Pro
280: Tahiti XTL
 
Toller Vergleich am Ende wenn man VSR mir DSR inkl 33% Smoothness gegenüberstellt. Wer bitte stellt 33% ein, da ist ja alles verwaschen. Ich spiele mit maximal 20% je nach Spiel und dann würde auch das Ergebnis gleich sein (gleiche Bildschärfe).
 
Steff456 schrieb:
Wer bitte stellt 33% ein, da ist ja alles verwaschen.
Interessant, nvidias Standardeinstellung ist also verwaschen, laut deiner Aussage. Das wäre ja für die Verfechter von nvidias Bildqualität ein herber Schlag in deren Gesicht.
 
eXEC-XTX schrieb:
Ich will nicht noch 10 weitere AA-Filter, ich will AntiAliasing für alle Spiele (DSR / VSR
Warum nicht, Auswahl ist immer gut. Und nicht vergessen, DSR/VSR ist kein Allheilmittel, sondern endlich eine Notmaßnahme.

NoD.sunrise schrieb:
Wenn Leute allerdings 300 und mehr Euro für ne GPU ausgeben und dann aber kein Geld für nen entsprechenden Monitor haben dann verstehe ich das Konsumverhalten nicht wirklich
1. Kostet ein ensprechenender Monitor nicht nur einen kleinen Aufpreis, sondern evtl. gleich mal das Doppelte. Es denn man scheisst hier auf Qualität.
2. Vergisst du den Zeitpunkt der 300€ Ausgabe. Die liegt womöglich in der Vergangenheit, d.h. die Grafikkarte steht schon da. Die BQ Erhöhung durch Umlegung des Schalters ist somit gratis.
 
NoD.sunrise schrieb:
Wenn ich schon eine derart potente Hardware habe warum dann nicht gleich einen höherauflösenden Monitor nutzen?

Selbst eine 290X schafft in vielen Spielen keine 2560x1440 ohne Abstriche.
Hab mit meiner z.B. ~60 fps in Dragon Age 3 bei 1920x1080, bei einem 2560x1440 Monitor müsste ich die Grafik runterdrehen.
Dann lieber so, und dafür Downsampling in weniger anspruchsvollen Spielen ;)
 
coolmodi schrieb:
Selbst eine 290X schafft in vielen Spielen keine 2560x1440 ohne Abstriche.
Hab mit meiner z.B. ~60 fps in Dragon Age 3 bei 1920x1080, bei einem 2560x1440 Monitor müsste ich die Grafik runterdrehen.
Dann lieber so, und dafür Downsampling in weniger anspruchsvollen Spielen ;)

Empfinde ich ebenso.
Insbesondere kann man auf einem 2560x1440 Monitor nicht einfach die Grafik auf 1080p einstellen, weil es dann (vllt. nur subjektiver Eindruck) schlechter aussieht wie auf einem nativen 1080p Monitor.
 
@ Moderatoren

Könnt ihr endlich mal den ganzen nVidia Fanboy-Trash rausschmeissen?! Danke!

Ich habe eine AMD Grafikkarte im Einsatz, mich interessiert die News außerordentlich und anstelle mit den Redakteuren sich hier austauschen zu können, geht es hier wieder seitenweise mit dem Getrolle der nVidia-Fanboys los. Ja, die AMD Trolle schlagen auch zurück. Alle raus hier! Verwarnen und gut ist.

Ich wiederhole mich gern nochmal, in der Hoffnung das die ganzen Tech-Kinder endlich mit dem trollen aufhören:

Mich würde ein weiterer Test interessieren: Thema Crossfire System!
 
Ich habe mal eine frage ein Problem

und zwar wenn ich das Downspampling benutzt habe ich immer im Spiel ein Schwarzen Rand ( an jeder seite, oben , unten, links, rechts, ) wie bekomme ich das weg ?

Ich nutze mein Monitor (1080p) per HDMI
 
Entweder bin ich gerade doof oder einfach nur blind, wo finde ich die Einstellung denn im CCC?

Habe derzeit Win 10TP installiert (mit dem aktuellen Beta-Treiber): Die erste Installation wurde zwar als erfolgreich angezeigt, scheint aber nicht geklappt zu haben. Nach einem CleanInstall dann mit dem Tool hat es zwar gekaplappt, allerdings wurde irgendwo wohl etwas nicht installiert, kann jetzt nicht sagen was.
War am Ende halt statt mit grünem Haken gelb (habe ich öfters, klappt trotzdem immer einwandfrei).

Wäre nett wenn jemand sagen könnte unter welcher Kategorie ich es finde :)

PS: Sys aus der Sig

Edit: fündig!
Mit der Suche nach "resolu"[..tion] habe ich es dann gefunden.
Auf englisch ist es hier: My Digital Flat-Panels-->Properties-->Enable Virtual Super Resolution
 
Zuletzt bearbeitet:
Ist schon geil, um wieder neue Grakas verkaufen zu können (weil ja die alten Leistungsmäßig noch ausreichen), muss jetzt die interne Auflösung hoch geschraubt werden...
Waren das noch tolle Zeiten mit 320x200...
 
Ist bei einem nativen 4k Monitor eigentlich überhaupt noch Treppenbildung erkennbar oder kann man dort komplett auf AA verzichten?
 
NoD.sunrise schrieb:
Wenn Leute allerdings 300 und mehr Euro für ne GPU ausgeben und dann aber kein Geld für nen entsprechenden Monitor haben dann verstehe ich das Konsumverhalten nicht wirklich - zu meiner Studentenzeit wäre mir das auch zu teuer gewesen, da habe ich dann aber auch 400€ für nen kompletten PC ausgegeben und nicht allein für die Graka.

hab ne "300€-Karte" um meine Spiel mit möglichst hohen Settings spielen zu können, wofür brauche ich einen neuen/größeren/höher auflösenden Monitor für nicht gerade wenig Geld, wo mein Setting dann evtl zu langsam ist!? (Hab aktuell 24" FullHD)
 
Kommt auf die Größe deines Monitors an. Bei einem 30" 4k Monitor wird dir das eher auffallen als bei einem 24" 4k Monitor da die Pixeldichte deutlich höher ist. Allerdings gibt es leider kaum 24" 4k Monitore. Davon kostet der eine über 1.000€, der zweite taugt nichts da er keine niedrigeren Auflösungen im Vollbild fahren kann und jetzt ganz neu (endlich) der kann alles was ich brauch, das wird meiner. :D
 
@Tobi14: Das mag schon sein, nur hätte ich keine lust gehabt vor ein paar Jahren auf über 1920x1080 zu zocken, dafür aber ruckelig und mit minderwertigen Grafikdetails. Als damals crysis 1 rauskam hatte man selbst mit der damaligen 8800gtx nichtmal ansatzweise die Chance das Spiel auf "nur" 1920x1080 flüssig zu spielen.
Eigentlich jedes grafisch gute Spiel konnte man 2007 abwärts auf Full hd oder mehr vergessen... Ausser man ist Ubisoft Mitarbeiter und gibt sich mit ruckeligen 30 fps (in dem Fall warscheinlich noch weniger) zufrieden.
 
eXEC-XTX schrieb:
Nachdem Nvidia mit GSYNC den Markt aufmischt, ist AMD gezwungen, etwas zu unternehmen.
Hihi, ich hab schon da aufgehört zu lesen. Nur weil du so ein Ding hast, ist es noch lange kein marktrelevanter Trend.
Ich finds gut, dass AMD so schnell beim Downsampling nachziehen konnte. nVidia ignoriert solche Trends teilweise ewig lange (wie das vorher erwähnte TruForm) und blockiert somit den Fortschritt. Is ja klar, dass Innovationen und Evolutionssprünge mal von den einen und dann wieder von den anderen kommen.

Pintolus schrieb:
Ist bei einem nativen 4k Monitor eigentlich überhaupt noch Treppenbildung erkennbar oder kann man dort komplett auf AA verzichten?

Kommt draufan wie groß der Ist und wie nahe du dran sitzt. Bei einem 4K TV mit 65" musst du aber schon sehr nahe dran gehen. Unter 3m würde ich sagen. Um ans Limit der Auflösung zu kommen, kannst du aber noch näher dran (1,5-2m) bevor die Auflösung sichtbar geringer wird und unter jener von deinem Auge liegt. Die Treppchenbildung gibt es generell immer.
 
Zuletzt bearbeitet:
eXEC-XTX schrieb:
Ich habe einfach das Gefühl, dass AMD immer nur das tut, was es dringend tut muss. "Ein Pferd springt nur so hoch es muss" fällt mir da ein. Mikroruckler? Bis heute nicht anständig gefixed! Bildverzerrungen? Nachdem Nvidia mit GSYNC den Markt aufmischt, ist AMD gezwungen, etwas zu unternehmen. Marktreif ist bis heute kein einziger Monitor, während ich längst in den Genuss von G-SYNC gekommen bin. DSR? Ja verdammt, die Konkurrenz hat es, in jedem Test steht es, wir brauchen das. Geforce Experience ist toll für Casual Spieler, kommt, lasst uns das kopieren!
Eigene Initiative? Fehlanzeige!

Kommt hier im Artikel nicht so raus, aber anscheinend hat AMD die Community gefragt, was sie gerne im Treiber hätten und hat das entsprechend umgesetzt, würde das dann schon als ein wenig Eigeninitiative bezeichnen (zumindest das Fragen der Community)

Vor einiger Zeit bat AMD die Community um Feedback zu ihren Catalyst-Treibern. Auch PCGH beteiligte sich und wünschte sich unter Anderem Downsampling-Support und eine verbesserte Performance unter DirectX 11. Nun ist der Catalyst Omega erschienen, der viele der gewünschten Verbesserungen enthält, darunter auch Downsampling-Support. AMD nennt das Feature Virtual Super Resolution (VSR).

Quelle
 
Zurück
Oben