Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
Soso- Man kann den Spieß auch umdrehen. Von wegen nVidia bremst durch Tesselation bei Hairworks die Konkurrenz aus:ampre schrieb:Hah gut das du Hairworks bringst. Mit Tress FX von AMD gibt es einen Open Source Zugang der weniger Leistung kostet und besser aussieht soviel zu proberitaren Mist von Nvidia
In der Praxis funktioniert dies auch ganz gut, allerdings hatten AMD-Grafikkarten bei Release einen Vorteil: Grafikkarten der Graphics-Core-Next-Architektur haben erfahrungsgemäß mehr GPGPU-Leistung als das äquivalente NVIDIA-Pendant. Daher konnten AMD-Grafikkarten TressFX-Haare auch schneller berechnen
Dann schluckt mal Eure eigene Medizin... Da wird sich doch nicht jemand mit seiner eigenen Technik einen Vorteil verschafft haben und eine "Schwäche" des Konkurrenzproduktes ausgenutzt haben?
Sowas machen doch nur "böse" Firmen?
Aber ich weiss ja.... In dem Fall ist das ja dann wieder was gaaaaanz anderes und lässt sich ganz einfach erklären, nicht?
Anhand dieses Beispieles sollte jeder merken, wie dämlich dieser Markenfetischismus und Kleinkrieg hier ist.
Zuletzt bearbeitet:
Tress Fx ist aber offen und man kann gegensteuern. Bei Gameworks geht es nicht. Und Tress FX läuft eben nicht schlecht auf NVIDIA Spielen siehe Tomb Raider...
Und nur mal so in 2018 ist eine GTX 970 20% langsamer als eine 390
http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/
Von den Micro Rucklern bei neuen Games ganz zu schweigen..
Und nur mal so in 2018 ist eine GTX 970 20% langsamer als eine 390
http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/
Von den Micro Rucklern bei neuen Games ganz zu schweigen..
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.324
Wadenbeisser schrieb:Wenn du dich darüber freust wenn zu deinem Nachteil sinnlos Rechenleistung verpulvert wird um die Konkurrenz auszubremsen dann ist das dein Problem, an der Stelle empfehle ich dir dringend beim nächsten Hardware Kauf einen Blankoscheck an nvidia zu schicken um deren Gewinn noch weiter zu maximieren. Sie sind schließlich kein Wohlfahrtsverein und damit offensichtlich auch nicht verpflichtet im Interesse des Kunden zu handeln.
das "sinnlos Rechenleistungs" passiert dann wohl auch in jedem Game das schlechter aussieht als BF V und dabei weniger FPS bringt, oder eben den Titeln bei denen Maxed out kaum besser aussieht als ein doppelt so schnelleres kleineres Preset.
Genau genommen schießen wir seit Jahren bei Rasterizing mit Kanonen auf Spatzen und keinen interessierst. Dass da bei AMD teils die Flops nicht am Schirm ankommen macht da eher den kleinen Teil aus.
Umso besser das mit RT mal was anderes Einzug hält. Der weg ist weit, der Hardware Hunger astronomisch, aber wenigstens wird sich so optisch auch mal was tun für die Hardware die man einsetzt.
Das video fand ich hierzu top da es schön einzelne Effekte vergleicht. Auch bei 1080p erfährt man welche Tricks und Tweaks nötig sind und was es kostet.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ergänzung ()
ampre schrieb:Und nur mal so in 2018 ist eine GTX 970 20% langsamer als eine 390
wundert das bei 8 zu 3.5 GB Ram? 2018 sauft auch eine Fury X regelmäßig ab.
Wenn die Karte zudem zum Release ihre Leistung nicht auf den Schirm bekommt ist dürfte das so ziemlich das Gegenteil von dem sein was AMD gerne hätte - und auch logisch dass hier über zeit mehr zu holen ist. AMD ist ihre "fine Wine" Sache sicher mehr Dorn im Auge als dem Anwender.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
ampre schrieb:Und nur mal so in 2018 ist eine GTX 970 20% langsamer als eine 390
http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/
Kann er sich auch nix davon kaufen, wenn die Schnittrate bei 34 FPS liegt. Die 390er ist dort auch nicht vor Dips gefeit... Und das einhergehend mit dem Nachteil in den 3 Jahren der Hauptnutzungszeit der Grafikkarte das langsamere Produkt betrieben zu haben.
Ich weiss nicht, ob das jetzt so der Vorteil ist. Muss jeder für sich entscheiden.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.324
eben.ampre schrieb:Eine Fury X ist nur 6% hinter einer 980ti und Fury x hatte auch schon so etwas ähnliches wie hbcc integriert.
Anders als dein Beispiel hat es die Fury X, voll aktiv, mit 20% mehr Flops usw über die Zeit eben nicht am Release Pendant (980 TI) vorbei geschafft, anders als andere AMD Karten wie dein Beispiel. Die 390 ist schon allein deshalb das Paradebeispiel weil sie den doppelten VRam hat und ihr Konkurrenzprodukt genau da krankte.
Um zu wissen dass nach X Jahren die R9 390 besser aufgestellt ist als die 970 musste man kein Hellseher sein
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
Revan1710 schrieb:Ich finde, dass es ein sehr schmaler Grat ist zwischen paranoid und blauäugig. [...]
Das sehe ich ähnlich, aber ich neige dazu von Fall zu Fall zu gucken und die Vergangenheit dabei im Hinterkopf zu behalten.
Hier hat Nvidia eine mMn sinnvolle Neuerung geschaffen. Das wird im Test auch so gesehen und deshalb kann man dann auch mal ein Lob dafür aussprechen. Das ist aber gleichzeitig kein Freifahrtschein für die Zukunft, denn insgesamt betrachte ich Nvidia eher negativ. Einige der Gründe dafür wurden hier im Thread schon genannt. Empfehle dazu das YouTube Video von AdoredTV.
Fakt ist aber leider auch, ohne Konkurrenz kann Nvidia im oberen Segment schalten und walten, wie sie wollen. Da ist es marktwirtschaftlich nachvollziehbar, das Monopol jetzt auszunutzen, denn der Kunde straft NVidia nicht genug ab*.
Woran ich übrigens auch sämtlichen Technik Portalen durch die Hofberichterstattung eine Mitschuld gebe.
W
Wadenbeisser
Gast
Dann muss man nvidia schon für verdammt inkompetent halten um zu glauben das durch Zufall genau der Arbeitspunkt angestrebt wird bei dem die eigene Architektur in Benchmarks deutlich besser weg kommt.ZeroZerp schrieb:Ich weiss was Du meinst. Hatte ja auch vorher schon geschrieben, dass nvidia/die Producer da Blödsinn getrieben haben. Nur ist die Frage, ob das tatsächlich böswillig war. Denn letztendlich hat man sich dadurch ja auch ein wenig ins eigene Fleisch geschnitten. da kann man viel spekulieren...
Das würde der Markt relativ schnell bestrafen.
Genau- Das Culling setzt vor der Rasterisierung ein, sonst wäre es relativ nutzlos. Es ist ja gerade der Witz des Systems, verdeckte Dreiecke eben nicht zu rastern - Das kann auch auf Objektebene passieren, dazu braucht man aber dann z.B. die Middleware Umbra.
Die primitive Shader und das Mesh Shading hat da z.B. enorme Vorteile. Dadurch, dass quasi die gesamte Szene im Puffer der Grafikkarte bearbeitet werden kann, kann diese dann unter Anderem auch gleich ein extrem effizientes, schnelles culling durchführen. Unter Anderem deshalb liegt in der Technik ein großes Geschwindigkeitspotenzial.
Zudem kann der Markt herzlich wenig bestrafen wenn es der Kunde nicht tut denn diesesorgen schließlich für den entsprechenden Warenabsatz. Was von den ganzen Spielchen die nvidia im laufe der letzten 10 Jahre abgezogen hat hat der Kunde und damit der Markt bestraft? So wie ich das sehe hat der Markt es eher belohnt.
Das ist eben wie bei VW. Egal was der Konzern treibt udn welche Skandale es nach sich zieht, nichts hat ernsthafte Konsequenzen.
Des weiteren sehe ich nicht wo der Sinn deiner Argumentation zum Culling im Bezug auf die Tesselation liegen soll denn so wie ich das sehe läuft es doch eher so ab. Bevor das Culling darüber entscheiden kann ob etwas verdeckt wird müssen erstmal die dafür nötigen Dreiecke stehen, welche wiederum von der Tesselation aufgeblasen werden. Man spart also letztendlich erst nach der Polygonenerzeugung. Es setzen zwar Culling Typen auch bei der Polygonenerzeugung an, die Preisfrage ist aber ob sie eingesetzt werden und wie die Tesselation darauf reagiert denn wie man anhand der Betonklötze sieht kann man auch wenige Polygone auf tausende aufblasen ohne einen ernsthaften Nutzen davon zu haben.
Ergänzung ()
Soweit ich mich erinnere hat die Fury nichtmal ansatzweise sowas wie HBCC mit drin, da dient der HBM Speicher lediglich als Grafikspeicher und funktioniert damit wie bei anderen Karten auch. Daher auch deren Probleme bei hohen Auflösungen. Ihr geht einfach der Speicher aus und hat deshalb auch die Probleme mit der 980Ti.ampre schrieb:Eine Fury X ist nur 6% hinter einer 980ti und Fury x hatte auch schon so etwas ähnliches wie hbcc integriert.
Ergänzung ()
@Krautmaster
Wenn man bei der Rasterisierung für kleine Fortschritte mit Kannonen auf Spatzen schiesst dann schmeißt man beim Raytracing Ansatz mit Atombomben danach. Wir reden hier schließlich um etwas wofür man aktuell eine 1300€ Karte mit speziellen Recheneinheiten benötigt um halbwegs in FullHD mit 60 FPS spielen zu können. Bei der Rasterisierung mit einem guten Fake Ansatz könnte man vermitlich was vergleichbares in UHD erreichen.
Zuletzt bearbeitet von einem Moderator:
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.885
Sicherlich vorbildlich, dass Bethesda CAS noch nachrüsten um diejenigen mit RTX GPU, die noch nicht zu Wolfenstein 2 gegriffen haben, ab zu holen, aber als Kaufargument für die preis-leistungstechnisch mauen RTX Turing Karten sehe ich das nicht.
Da können nVidia und solche wohlwollenden Presse-Artikel die Werbetrommel für Turing rühren wie sie wollen
.
Deutlich interessanter finde ich die Ankündigung zu einer möglichen Intel dGPU-Vorabdiskussion/Pressekonferenz zum Launch in 2020, die Dezember diesen Jahres stattfinden könnte, auch wenn es laut Koduri kein Intel dPU Event ist.
Da können nVidia und solche wohlwollenden Presse-Artikel die Werbetrommel für Turing rühren wie sie wollen
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Deutlich interessanter finde ich die Ankündigung zu einer möglichen Intel dGPU-Vorabdiskussion/Pressekonferenz zum Launch in 2020, die Dezember diesen Jahres stattfinden könnte, auch wenn es laut Koduri kein Intel dPU Event ist.
Pleasedontkill
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 550
ZeroZerp schrieb:Genau- Und wenn Du eine Firma hättest, würdest Du natürlich alles open Source machen, die Konkurrenz überall einbinden, keine Schwächen des Konkurrenten ausnutzen und alles für Lau anbieten und die Eigenentwicklungen für die Konkurrenzprodukte optimieren.
Es geht hier um Business! Das ist kein Wohlfahrtsverein!
....
Und nochmal... Die Gameworks- Bibliotheken sind ab Lizenzierung für das Entwicklerstudio schon länger in den Sourcen verfügbar und dürfen auch geändert bzw. optimiert werden.
Die Blackbox war mal...
Man ZeroZerp, du hast da gerade AMD beschrieben
(ausserd das "Eigenentwicklung für die Konkurrenz optimieren" geht ja nicht dann müssten Sie ja noch vorbei gehen.)
Was mich dazu bringt was an Gameworks offen ist.
Denn hier hast es richtig erklärt, source manipulierbar jedoch NICHT offen. -> + für AMD! sorry
Ergänzung ()
ZeroZerp schrieb:Das stimmt schon. NVidia nennt deren Technikimplementation RTX. Und da es von keinem sonstigen Hersteller diesbezüglich irgendetwas gibt, kann es auch nicht benutzt werden.
DXR ist aber offen. Das bedeutet, dass BFV durch DXR die Spiegelungen auf jeder Hardware darstellen könnte, die diese Schnittstelle bedienen kann.
Ist auch ok wenn DICE sich selbst verkauft hat. Das Spiel sieht so gut aus ob RTX on oder off.
Was mich echt ankotzen würde ist wenn folgende Spiele wie "Atomic Heart" die richtig gut aussehen wegen RT nur einem Monopolisten zugute kommen würden. Das obwohl überall möglich.
Der einzige Grund, warum AMD so oft auf OpenSource und andere Industrieteilnehmer setzt, ist dass sie die Ressourcen für eine In-House Entwicklung meist nicht haben.
Und wenn ich mir Huddy's Aktionen und Anschuldigungen so ansehe, sehe ich auch nicht den Heiligenschein, den @Pleasedontkill AMD aufsetzen will.
Nachdem ich neulich selbst geschrieben habe, wie sehr mich die Verwendung von "Mimimi" aufregt, schlucke ich es hier runter. Aber AMD muss schon aufpassen, das Image des ständig benachteiligten und leidenden ist nicht unbedingt gut. Nicht in der heutigen Businesswelt.
Und wenn ich mir Huddy's Aktionen und Anschuldigungen so ansehe, sehe ich auch nicht den Heiligenschein, den @Pleasedontkill AMD aufsetzen will.
Nachdem ich neulich selbst geschrieben habe, wie sehr mich die Verwendung von "Mimimi" aufregt, schlucke ich es hier runter. Aber AMD muss schon aufpassen, das Image des ständig benachteiligten und leidenden ist nicht unbedingt gut. Nicht in der heutigen Businesswelt.
derneuemann
Cadet 4th Year
- Registriert
- Feb. 2015
- Beiträge
- 102
Bärenmarke schrieb:Und das stimmt eben nicht, aber da kann ich dir gerne mit einem Auszug des Tests aushelfen:
"Einzig fiel auf, dass Wolfenstein 2 in manchen Levels offenbar die Beleuchtung nach dem Verstellen einer Grafikoption verändert.
In einer Szene gab es dann aber doch einen Unterschied zu sehen – interessanterweise in der dunkelsten. So gehen mit CAS in der Szene Details des Mauerwerks am Haus hinter dem Fahrzeug verloren. Hier verschwinden viele Fugen. Es scheint so, als wäre das Haus mit viel weniger Ziegeln gebaut, als es eigentlich ist. Auch an der Häuserwand des Gebäudes hinten rechts gehen feine Details durch CAS verloren, dasselbe gilt für kleine Details an der Absperrung zentral rechts. Zu guter Letzt verschwinden auch einige Bodendetails direkt vor dem Spieler"
Liest sich für mich nicht nach Qualität bleibt unverändert, aber gut in deiner Welt ist ja eh immer alles leicht verdreht, kennen wir ja auch aus anderen Threads
Ich hab ihn gelesen, aber du wohl eindeutig nicht. Aber extra für dich habe ich oben die Passage aus dem Text sogar nochmal zitiert
Die Hoffnung stirbt ja bekanntlich zuletzt.
Auch nochmal für dich, das Fazit!
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Qualität und Balanced funktionieren sehr gut
Schlussendlich lässt sich sagen, dass Content Adaptive Shading in Wolfenstein 2 je nach Sequenz gar keine optischen Verluste erzeugt und es in anderen Szenen dagegen kleine Einbußen geben kann. Beim Spielen ist der Grafikverlust aber bei „Qualität“ so gering, dass die minimalen Unterschiede nicht auffallen. Und auch „Balanced“ wird in der Spiele-Praxis keinerlei negativen Auswirkungen haben. Einzig die Stufe „Spiel-Performance“ sollte gemieden werden.
Es ist neu und liefert in verschiedenen Szene keine nachweisbaren Verschlechterungen, in anderen schon (ist noch neu) die aber mit der Lupe zu suchen sind.
Danke fürs lesen.
Es ist klar davon auszugehen, das man hier weiter optimieren wird und es ist toll das es gemacht wird. Ich hoffe das AMD das auch demnächst macht!
Wir wollen doch immer höhere Auflösungen und Fps. Also bitte, ich finde derartige Entwicklungen gut.
Ziel ist es mehr Fps, ohne sichtbaren verlust!
Wie gut das funktioniert muss man dann sehen, aber das direkt zu verteufeln, weil es der falsche Hersteller macht ist einfach kurzsichtig.
Siegfriedphirit
Lt. Junior Grade
- Registriert
- Apr. 2009
- Beiträge
- 508
als wenn eine Karte in der Leistungsklasse auf die bis zu 13% Mehrleistung angewiesen wäre. Für das Kleine an Mehrleistung wird aber tüchtig zur Kasse gebeten.
Und hier wird es emsig beworben irgendwo müssen ja die Gehälter der CB Mitarbeiter finanziert werden.
Auch CB ist nicht neutral - es gilt immer noch die Maxime -wer zahlt der bestimmt die Musik- .
Mir auch egal-solange man sch nicht nur mit den hochpreisigen Produkten beschäftigt.Gerade bei Spiele Tests ist es doch wichtig, wie die neuen billigeren Produkte abschneiden, denn hier geht es ja ans Eingemachte - an die noch Spielbarkeit. MS Sprecher sagten mal bezugnehmend auf die X Box - alles was über 30 FPS liegt ist flüssig spielbar. Hardcore Gamer sehen das natürlich anders, denn sie müssen ja Gründe für den Kauf ihrer teuren Hardware heranführen und da sind nun mal 60 FPS die unterste Grenze der Spielbarkeit. Ich persönlich brauche für meine Rollenspiele keine 60 FPS mir reichen da 35 FPS als unterste Grenze völlig aus, wenn sich das Mittel um die 40-45 FPS einpegelt.
Und hier wird es emsig beworben irgendwo müssen ja die Gehälter der CB Mitarbeiter finanziert werden.
Auch CB ist nicht neutral - es gilt immer noch die Maxime -wer zahlt der bestimmt die Musik- .
Mir auch egal-solange man sch nicht nur mit den hochpreisigen Produkten beschäftigt.Gerade bei Spiele Tests ist es doch wichtig, wie die neuen billigeren Produkte abschneiden, denn hier geht es ja ans Eingemachte - an die noch Spielbarkeit. MS Sprecher sagten mal bezugnehmend auf die X Box - alles was über 30 FPS liegt ist flüssig spielbar. Hardcore Gamer sehen das natürlich anders, denn sie müssen ja Gründe für den Kauf ihrer teuren Hardware heranführen und da sind nun mal 60 FPS die unterste Grenze der Spielbarkeit. Ich persönlich brauche für meine Rollenspiele keine 60 FPS mir reichen da 35 FPS als unterste Grenze völlig aus, wenn sich das Mittel um die 40-45 FPS einpegelt.
@Siegfriedphirit Ich finde die Unterstellung der Parteilichkeit von CB ziemlich unverschämt.
Offenbar ist nur der "Unparteilich", der genau Deine gefärbte Meinung möglichst klar herausstellt. Wenn jeder so denkt, dann haben wir nur noch Seiten, die jeweils ihre eigene "Farbschattierung" darstellen und die wirklich objektiven, nachvollziehbaren Informationen gehen verloren.
Offenbar ist nur der "Unparteilich", der genau Deine gefärbte Meinung möglichst klar herausstellt. Wenn jeder so denkt, dann haben wir nur noch Seiten, die jeweils ihre eigene "Farbschattierung" darstellen und die wirklich objektiven, nachvollziehbaren Informationen gehen verloren.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
Ja- Sie waren ja sogar so dämlich einen Arbeitspunkt zu wählen, bei dem die eigene Hardware deutlich in die Knie geht. Aber- Stimmt. Das war alles Kalkül, damit die Kunden dann die neuen deutlich schnelleren Karten kaufen müssen.Wadenbeisser schrieb:Dann muss man nvidia schon für verdammt inkompetent halten um zu glauben das durch Zufall genau der Arbeitspunkt angestrebt wird bei dem die eigene Architektur in Benchmarks deutlich besser weg kommt.
Siehe das Äquivalent TressFX und meine Ausführung dazu oben.
Welch Unverschämtheit von einem Hersteller Dinge zu entwickeln, die auf den eigenen Karten besser laufen, als auf denen der Konkurrenz.
Weil das Produkt eben im Paket spitze war. Und nicht jeder kauft bei einem Produkt die gesamte Firmengeschichte und deren Moral mit.Zudem kann der Markt herzlich wenig bestrafen wenn es der Kunde nicht tut denn diesesorgen schließlich für den entsprechenden Warenabsatz. Was von den ganzen Spielchen die nvidia im laufe der letzten 10 Jahre abgezogen hat hat der Kunde und damit der Markt bestraft? So wie ich das sehe hat der Markt es eher belohnt.
Exakt. Und da hier jeder auf Konsum erzogen ist und es keine "sauberen" Alternativen gibt, nimmt man einfach das Produkt, wonach einem die Nase steht.Das ist eben wie bei VW. Egal was der Konzern treibt udn welche Skandale es nach sich zieht, nichts hat ernsthafte Konsequenzen.
https://www.gamedev.net/forums/topi...ustum-culling/?do=findComment&comment=5338483Des weiteren sehe ich nicht wo der Sinn deiner Argumentation zum Culling im Bezug auf die Tesselation liegen soll denn so wie ich das sehe läuft es doch eher so ab. Bevor das Culling darüber entscheiden kann ob etwas verdeckt wird müssen erstmal die dafür nötigen Dreiecke stehen, welche wiederum von der Tesselation aufgeblasen werden. Man spart also letztendlich erst nach der Polygonenerzeugung. Es setzen zwar Culling Typen auch bei der Polygonenerzeugung an, die Preisfrage ist aber ob sie eingesetzt werden und wie die Tesselation darauf reagiert denn wie man anhand der Betonklötze sieht kann man auch wenige Polygone auf tausende aufblasen ohne einen ernsthaften Nutzen davon zu haben.
Ergänzung ()
Der wichtige Teil daraus:
So, basically you always send the full grid and you can frustum test to avoid to do the tesselation pass if the part of the grid is not visible.
---
Die Problematik ist doch, dass die ganzen Fake Ansätze es maximal zu einem "akzeptablen" Bild bringen und bereits daür ein Höllenaufwand produziert wird.Wenn man bei der Rasterisierung für kleine Fortschritte mit Kannonen auf Spatzen schiesst dann schmeißt man beim Raytracing Ansatz mit Atombomben danach. Wir reden hier schließlich um etwas wofür man aktuell eine 1300€ Karte mit speziellen Recheneinheiten benötigt um halbwegs in FullHD mit 60 FPS spielen zu können. Bei der Rasterisierung mit einem guten Fake Ansatz könnte man vermitlich was vergleichbares in UHD erreichen.
Mich wundert immer, dass die Leute einerseits 4K in 120Hz brauchen, es ihnen aber dann komischer Weise garnicht auffällt, wenn die hälfte ihres Bildes mit niedrig aufgelösten, fehlerhaften und nicht in der Bildwiederholfrequenz des Renderings dargestellten Fakeffekten gepflastert sind und das dann aber gutgeheissen weil ja die Framerate obengehalten wird.
Zuletzt bearbeitet:
Revan1710
Captain
- Registriert
- März 2012
- Beiträge
- 3.304
v_ossi schrieb:Hier hat Nvidia eine mMn sinnvolle Neuerung geschaffen. Das wird im Test auch so gesehen und deshalb kann man dann auch mal ein Lob dafür aussprechen
Hier im Falle von Wolfenstein mit Sicherheit lobenswert, aber auch noch nicht aussagekräftig. Interessant wird es bei zukünftigen Spielen, die in Kooperation mit Nvidia entwickelt werden und wie es dort dann implementiert wird und v.a. auch wie die Tests dieser Spiele dann durchgeführt und interpretiert werden.
Ähnliche Themen
- Antworten
- 48
- Aufrufe
- 6.407
- Antworten
- 87
- Aufrufe
- 17.024