Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent

ZeroZerp schrieb:
Das haben Features so an sich, dass sie in neueren Grafikkartengenerationen meist besser als schlechter laufen...
Ja, wenn es einen Mehrwert gibt, gebe ich dir recht. Wenn das Haar von Geralt aber mit 8x genauso aussieht wie mit 64x dann ist es schon komisch es auf 64x zu forcen (was am Anfang ja der Fall war) und die eigenen neuen Karten überproportional gut dastehen zu lassen (was ja ansich nicht der Fall war/ist)
 
  • Gefällt mir
Reaktionen: CMDCake und Pleasedontkill
Chillaholic schrieb:
Schön, dass du meinen Satz noch mal wiederholt hast. Jetzt hat ihm wohl jeder verstanden.

Du hast Dich darüber beschwert, dass man es nicht gesamt deaktivieren kann, und ich hab Dir erklärt, warum das so ist.

Meine Aussage, dass der Performance Nachteil nur dann Auftritt, wenn man Gameworks (also dessen Effekte) nutzt, bleibt davon völlig unberührt. Oder widerlegt Dein "man kann nur einzelne Effekte deaktivieren" meine Aussage in irgendeiner Weise?
 
pilzsammler2002 schrieb:
Ja, wenn es einen Mehrwert gibt, gebe ich dir recht. Wenn das Haar von Geralt aber mit 8x genauso aussieht wie mit 64x dann ist es schon komisch es auf 64x zu forcen (was am Anfang ja der Fall war) und die eigenen neuen Karten überproportional gut dastehen zu lassen (was ja ansich nicht der Fall war/ist)

Das ist ja erst mal nur eine subjektive Aussage ("genauso aussieht"). Hast Du alle Blickwinkel, jede Situation usw. abgecheckt oder beruht Deine Aussage nur auf eine Handvoll Screenshots?

Ich weiß es jedenfalls nicht, und deswegen würde ich mich mit solchen Aussagen zurückhalten.

Ich habe jedenfalls nicht den Eindruck, als wäre gerade CDP ein Sklave der Industrie... hast Du schon mal mit einem deren Entwickler gesprochen, um die exakten Gründe zu erfahren? Nein? Dann behaupte auch nicht, sie zu kennen.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn und .Sentinel.
Shoryuken94 schrieb:
Ich finde es gut, dass die Jungs und Mädels hinter Wolfenstein stark auf moderne Architekturen setzen und neue Features nutzen! Und das unabhängig von AMD und Nvidia.

+1

Absolut richtig. Die Jungs und Mädels hinter Wolfenstein, gehen hier genau den richtigen Weg. Sehr zu begrüßen.

Insgesamt schön zu sehen, dass das Festureset nach und nach ankommt und genutzt wird.

Man möchte den Entwicklern zurufen, „Weiter so!“

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: derneuemann, Shoryuken94, pietcux und 2 andere
ZeroZerp schrieb:
Wie gesagt- Da hat CD Project Red den schwarzen Peter...
Die haben das auch relativ schnell ausgebessert.
Und die wussten nix davon :)
Da closed source :p
http://www.pcgames.de/The-Witcher-3...ft-Nvidia-mit-Gameworks-Sabotage-vor-1159707/
Zitat:
Darauf soll das Studio entgegnet haben, dass es "zu spät " sei. Hairworks "schade" nicht nur AMD, ist Huddy der Ansicht. Es sei auch auf Geforce-Karten "außergewöhnlich ineffizient." Rückendeckung erhält er von Benchmark-Spezialisten. Bei Tests mit einer GTX 980 sei die Framerate mit aktiviertem Hairworks um 30 Prozent eingesackt, auf einer AMD R9 290X sogar um mehr als 50 Prozent.

Grestorn schrieb:
Ich weiß es jedenfalls nicht, und deswegen würde ich mich mit solchen Aussagen zurückhalten.
http://www.pcgameshardware.de/screenshots/original/2015/05/Witcher_3_Hairworks_Radeon-pcgh.png
 
  • Gefällt mir
Reaktionen: CMDCake
Und das glaubst Du einfach so, obwohl es völlig klar ist, dass das Nonsense ist?

Noch dazu von "Huddy"?!
 
ZeroZerp schrieb:
Genau- Ich lebe in einer Welt, in welcher ich nicht von grundauf bei jedem Problem die maximale Böswilligkeit und Profitgier als erste Motivation unterstelle.
Komisch, das klang bei dir bisher immer ganz anders, insbesondere auf diverse Geschäftspraktiken.

Das wir in einer kapitalistischen Welt leben in denen börsennotierte Unternehmen wie Intel, AMD oder nvidia vorrangig dem Aktionär verpflichtet sind und das gewisse Geschäftsgebahren eben dazu gehören würden und dies Alltag wäre.
Und ich unterstelle keine Böswilligkeit, sondern Profitgier, geplante Obsoleszenz inkl dem praktischen Vorteil dabei die bekannte "Schwäche" des Konkurrenten auszunutzen.

Ja- Denn auch die nVidia Karten verlieren unnötig an FPS, wenn man die Einstellungen derart in die Höhe treibt.
Und ob eine Firma, die von ihrer Technologie und damit auch der Performance ihrer Engine lebt, ihren Ruf durch ein kleines Sponsoring eines Herstellers komplett aufs Spiel setzt, und damit die eigene Engine in Verruf bringt, ist sehr stark anzuzweifeln.
Geld regiert die Welt. Sogar im kleinen.
Und auch wenn die vorherigen nvidia Generationen ebenso betroffen waren, ist es doch in dieser kapitalistischen Welt super wenn man den Kunden eine neue GPU Generation andrehen kann, insbesondere bei Konsumenten welche sich mit der Thematik nicht auseinander setzen, keine Zusammenhänge bilden wollen oder können.

Und welche Gefahr soll denn für eine Firma wie Crytek ausgehen, wenn der Sponsor gleichzeitig mit 80% den Markt der dezidierten GPUs beherrscht (e)?
Das etwa die Kunden das Problem bei der Engine suchen oder dank genügend FUD die Schuld bei ATi respektive AMD Karten und deren achso schlechten Treibern, GPUs usw gesucht wird? :rolleyes:
 
  • Gefällt mir
Reaktionen: v_ossi
pilzsammler2002 schrieb:
Bei Tests mit einer GTX 980 sei die Framerate mit aktiviertem Hairworks um 30 Prozent eingesackt, auf einer AMD R9 290X sogar um mehr als 50 Prozent.

Bei der damals schwachen Geometrieleistung der Hawai GPU auch überhaupt kein Wunder.
Solche Halo-Effekte in Spielen kosten oft viel Performance, gerade wenn sie mit maximaler Glättung der Strähnen arbeiten, schau dir nur mal raytracing an.
Tress FX in Tombraider kostete übrigens etwa 25% Leistung, auch nicht besonders effizient, aber immerhin besser.
Kann man sich jetzt streiten wer recht hat. Aber so eine Manager Aussage kann auch völliger Käse sein.
Da muss man die Entwickler selbst fragen.
 
Erstens steht da nix von Gameworks als eine "Black Box" (wovon man weiß, dass es nonsense ist) und zweitens ist die Aussage, dass HairWorks auf NVidia Karten zugeschnitten ist, gar nicht zur Debatte gestanden. Natürlich ist es das.

Dass man aber auf AMD keine akzeptable Performance damit hinbekommt, hat man ja alleine dadurch entkräftet, dass man den Tessellation Faktor reduziert hat, und schwupps läuft es ganz gut auf AMD. Und das har CDPR gemacht, nicht NVidia!

Und, warum reden wir hier eigentlich über eine uralte Kamelle? Hier, in diesem Thread, geht es um Adaptive Shading, eine optionales Feature, das in einem Spiel zur Leistunngs-Optimierung vom Entwickler genutzt werden kann, wenn er es will. Davon hat AMD auch genügend im Köcher. Ich verstehe einfach nicht, warum einige das Nvidia so hart ankreiden.
 
pilzsammler2002 schrieb:

Wundert mich nicht, dass Nvidia ihr Feature mit geringeren Tesselationsfaktoren für die Konkurrenz nicht attraktiv machen will.
Was Hairworks in W3 angeht bin ich da argumentativ eher auf der Seite von Pilzsammler.

Aber man muss zur Verteidigung von Nvidia auch die schwache Tesselationsleistung AMDs erwähnen.
Eine Vega hat damit nach heutigem Stand kein Problem mehr.
Kann also gut sein, dass Nvidia hier mit Absicht Faktor 64, statt 32 angesetzt hat.

Beweisen lässt sich das dennoch schlecht.
 
Zuletzt bearbeitet:
Volkimann schrieb:
Komisch, das klang bei dir bisher immer ganz anders, insbesondere auf diverse Geschäftspraktiken.

Das wir in einer kapitalistischen Welt leben in denen börsennotierte Unternehmen wie Intel, AMD oder nvidia vorrangig dem Aktionär verpflichtet sind und das gewisse Geschäftsgebahren eben dazu gehören würden und dies Alltag wäre.
Und ich unterstelle keine Böswilligkeit, sondern Profitgier, geplante Obsoleszenz inkl dem praktischen Vorteil dabei die bekannte "Schwäche" des Konkurrenten auszunutzen.
Du reißt das ganze aber ganz schön aus dem Zusammenhang. Meine darauf bezogene Aussage betraf die Fertigung/Entwicklung von CPUs und den moralischen Standards am Markt agiren.

Zudem wird schnell klar, wenn man sich den Bericht, der hier verlinkt wird durchliest, dass die Aussage des Entwicklers CDP in diesem Falle ist, dass die Sourcen vorliegen, es aber schlichtweg nichts zu optimieren gäbe!

Wie denn auch, wenn Hardware XY mit dem Feature nur sehr schlecht zurecht kommt.
 
Grestorn schrieb:
Erstens steht da nix von Gameworks als eine "Black Box" (wovon man weiß, dass es nonsense ist) und zweitens ist die Aussage, dass HairWorks auf NVidia Karten zugeschnitten ist, gar nicht zur Debatte gestanden. Natürlich ist es das.
OMG..., es ist ne Blackbox! Nur weil se jetzt nen kleinen Teil im nachgang öffentlich machten (die teilweise durch assembler-reverse-engineering begutachtet werden mussten) ist es nicht direkt open-source...
Siehe hier, gibt genug Entwickler die es defintiv als Blackbox bezeichnen...
http://www.pcgameshardware.de/Nvidi...Specials/Nvidia-Gameworks-Special-1126441/#a4


Grestorn schrieb:
Und, warum reden wir hier eigentlich über eine uralte Kamelle? Hier, in diesem Thread, geht es um Adaptive Shading, eine optionales Feature, das in einem Spiel zur Leistunngs-Optimierung vom Entwickler genutzt werden kann, wenn er es will. Davon hat AMD auch genügend im Köcher. Ich verstehe einfach nicht, warum einige das Nvidia so hart ankreiden.
Das ist richtig, man kennt es ja das sich so ein Thread schnell verschiebt, hier ging es im Verlauf aber auch um die Möglichkeiten des "Cheatens" in Benchmarks (oder games whatever) und dann wurde irgendwann Tesselation auf AMD Karten mit ins Spiel gebracht :)
 
  • Gefällt mir
Reaktionen: CMDCake und Pleasedontkill
Pleasedontkill schrieb:
Ist auch eben eine geile Firma!
Wobei man sagen muss, dass sie gerade bei The Witcher 3 auch eine Selbstfindungsphase hatten (Stichwort: Diskussion bezüglich Grafikdowngrade/anfänglicher Kopierschutz).

Da rückten sie ja auch erst nachdem das Kind in den Brunnen gefallen war mit der Wahrheit raus, dass sie die Globale Beleuchtung für den PC eingestampft haben, weil es die Konsolen nicht gepackt haben.

Es gab also doch ein deutliches Grafikdowngrade, obwohl man anfangs beteuert hat, dass es nur "Optimierungen" waren.

Dennoch sind die Jungs schon vorbildlich, was deren Attitüde so angeht.
 
An alle:
Selbst verständlich ziehen Hardwareanforderungen an mit der Zeit.
Jedoch anstatt stendig linear oder progressiv zu steigen erkenne ich Wellen und diese ergeben verglichen mit den heraus gebrachten Produkten einen ganz anderes Bild.
Es geht über ein "Mooresches-Gesetz" (https://de.wikipedia.org/wiki/Mooresches_Gesetz) hinaus.

Ich kann mich erinnern (GTX780) wie die Karten mit verhältnismässig wenig Speicher ausgestattet wurden. Darauf, also einige Monate spähter, folgten viele Titel (Mordors Schatten bis6GB) die sehr viel Speicher verbratteten ohne mehrwert.
Grafikkarten mit 6GB kamen raus, das passte dann wie aufs Aug. Nun hatte sich der Trennt auf einmal wieder aufgelöst und ein Witcher3 mit super Grafik kahm ohne weiteres wieder mit 2GB aus.
Aber die 9xx Reihe hatte andere Benefits die zum tragen kamen wie Tesselation.

Es gibt viele Zufälle im Leben aber hier scheinen einige die Firma NVidia nicht zu kennen.

Deshalb:
https://de.wikipedia.org/wiki/Nvidia

...viel Spas bei der Lektüre.
 
  • Gefällt mir
Reaktionen: CMDCake
Bärenmarke schrieb:
Liest sich für mich nicht nach Qualität bleibt unverändert, aber gut in deiner Welt ist ja eh immer alles leicht verdreht, kennen wir ja auch aus anderen Threads ;)

Da ein variable rate shading an sich generell nicht global an der Beleuchtung dreht, ist davon auszugehen, dass das ein Bug ist.

Nur weil es dir nicht in den Kram passt ist es nicht schlüssig :rolleyes: Gibt einfach auch Menschen die Wert auf Qualität legen und diese nicht gegen mehr Performance eintauschen wollen.
Ja- Ich bin so einer.

Unterstellungen findet man regelmäßig in AMD Threads in denen du postest, aber das ist definitiv keine und wurde von einigen Usern hier bereits auch schon mehrfach dargelegt.
Dann schick mir per PN die ganzen "Unterstellungen", die ich in AMD Threads poste, ohne sie mit Belegen bzw. argumentativ zu stützen.

Vielleicht einfach mal die Postings lesen, anstatts diese nur ständig zu ignorieren?
Wenn postings keine Belege liefern, sondern aus persönlichen substanzlosen Ansichten bestehen, gehe ich nicht darauf ein oder weise zumindest darauf hin, dass man Meinung XY, die man gerne als Fakt darstellt doch wenigstens durch zumindest irgendeinen Link oder eine logische Argumentationskette stützen sollte.

Ich widerspreche mir nicht im geringsten, wo soll das auch der Fall sein?
Das habe ich dargelegt.

Des Weiteren habe ich nicht gesagt, dass sie für mich einen Qualitätsregler ist sondern sie damit verglichen, was ein kleiner aber feiner Unterschied ist. Denn das gleiche Ergebnis kann ich ohne diese tolle Technik schon erzielen.
Dann nenn mir bitte einen Titel, in dem Du eine Technik wie AS per Regler einstellen kannst.

Aber du sagst es ja selbst, man hat Qualitätseinbußen und wie oben bereits zitiert sind die je nach Szene sogar deutlich sichtbar. Wieso sollte ich also für eine Technik sein, welche die Performance zu Lasten der Qualität erhöht?
Weil das die von Dir gelobten Qualitätsregler sonst auch tun. Und wie gesagt- AS muss je nach Implementation nicht zwangsläufig die Darstellungsqualität per Pixel verschlechtern.

Was bringt mir das als Kunde denn, mehr fps, dafür sehen manche Stellen schlechter aus... Ein wirklich toller Gewinn.
Siehe oben.

Sorry, aber ich finds einfach nur lächerlich wie die nvidia Polizei jedes Feature hier in den Himmel loben muss, ohne den Sinn auch mal kritisch zu hinterfragen.
Das mag schon sein. Noch übler finde ich es aber, wenn man sich nicht mit der Technik der neuen Features beschäftigt und diese Pauschal, weil sie von einem Hersteller kommen, dessen Nase einem nicht gefällt, als Blödsinn und unnütz abgestempelt werden.

Ganz einfach, ich hätte da lieber generelle Performance Verbesserungen und zwar ohne das die Bildqualität verschlechtert wird, auch wenn es in den meisten Stellen nicht auffällt.
Genau das macht AS durchaus möglich.

Für mich ist das kein wünschenswerter Zustand, aber scheinbar können das hier einige wohl nicht akzeptieren, wenn man sich der Lobhudellei nicht anschließt!
Dass es immernoch so ein großes Wunder ist, dass frühe Adaptionen einer Technik nicht immer gleich perfekt sind...?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schnefferaunzn und kisser
Bärenmarke schrieb:
...
Soweit ich weiß sind die async Shaders ein optionaler Bestandteil von DX12:
https://www.golem.de/news/asynchron...ichtige-dx12-funktion-fehlen-1509-116107.html
Solltest du als Entwickler ja eigentlich wissen? Und wenn nvidia das nicht nötig hält zu implementieren kann da ja AMD wohl nichts für, die haben den Standard nicht definiert. Und das zeigt wiederum auch, dass sich nvidia eben nicht gerne an offene Standards hält!

So ist das und das haben Sie auch mit RTX gemacht.
Battlefield hätte ja auch einfach den Standard DXR nehmen können und von mir aus weil "it`s the way to be played" mit NV extension (RTX) entwickeln können.
Das wäre korrekt gewesen auch wenn in beiden Szenarien wohl nicht brauchbar.

Ich persönlich hoffe das sich in RT noch viel tun wird (muss es auch).
Super wäre es wie mit einer PhysX Karte eine weitere DX12 Grafikkarte dafür ein bauen zu können.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn und kisser
Zurück
Oben