Bericht Nvidia Turing: Adaptive Shading bringt in Wolfenstein 2 bis zu 13 Prozent

Bärenmarke schrieb:
Aber ich erkläre es gerne nochmal für dich:
Ich spiele auf Ultra und stelle dein super duper Feature an und habe bis zu 13% mehr fps, jedoch wie Wolfgang festgestellt hat eben nicht die gleiche Bildqualität.

Dann wähle die Option "ausbalanciert" und nicht performance.

Bärenmarke schrieb:
Und selbes passiert nunmal auch, wenn ich ein paar Regler nach links schiebe, da verändert sich auch die Bildqualität je nach Bereich und ich habe einen fps Zuwachs.

Nein, da passiert bei weitem nicht selbiges, das habe ich bereits oben schon erklärt, du hast es aber einfach ignoriert und mir unterstellt ich wäre begriffsstutzig.
Ultra verbessert zudem auch die Schatten, ambient occlusion ist stärker ausgeprägt.
Das hat gar nichts damit zu tun, dass Teile eines Bildes auf denen keine bis wenig Details sichtbar sind mit einer niedrigeren shading rate berechnet werden.

Adaptive shading hat mit Ultra "Mein Leben" und High Settings überhaupt nichts zu tun.
Die Verschattung/ambient occlusion wird hierbei zum Beispiel gar nicht von einer niedrigeren shading rate tangiert.

Bärenmarke schrieb:
Ich erwarte mir von neuen Features aber keinen fps Zuwachs zu Lasten der Qualität, denn den kann ich selber herbeiführen.

Nein, das ist nicht möglich, Erklärung siehe letzter Beitrag und dieser.

Bärenmarke schrieb:
Das war aber nicht meine, welche die zitiert hast. Ich habe mich auf Gameworks bezogen, im übrigen sogar auch mit dem Einwand, dass meine GTX 780 ausgebremst wird. Und wenn ich auf etwas konkret eingehe sollte man auch dabei bleiben...

Und selbst wenn nicht. In Gameworksspielen bestimmt Nvidia eigentlich überhaupt nicht den Tesselationsfaktor, es sei denn in Ausnahmefällen.
Andromeda inkl. Gameworks zeigt max x16, das ist nicht hoch.

Und genau das haben einige User hier deutlich aufgezeigt, auch wenn es euch beiden nicht in den Kram passt.

Dem habe ich auch nicht widersprochen. Ich widerspreche nur, weil das eben pauschal nicht die Bewandtnis ist und generell der Beweis erst zu erbringen wäre, was eben nicht klappt.
Bärenmarke schrieb:
Sorry aber du bist schon ziemlich verblendet, das unterstützen von geschlossenen Standards bringt den Markt eben nie nach vorne, sondern spaltet ihn und macht im Endeffekt alles teurer, da immer zweitgleißig gefahren werden muss. Aber das sollte dir als Entwickler bei 15 Jahren Berufserfahrung doch bewusst sein?

Das ist ein Trugschluss, aber das jetzt ausführlich zu erklären, sprengt für mich zumindest jetzt den Zeitrahmen.
Aber nur so viel: Features die erst einmal proprietär sind haben eine deutlich einfacheres Planungs und Umsetzungskonzept. Time to market und sie lösen auch Druck auf die Industrie aus.
Bärenmarke schrieb:
Soweit ich weiß sind die async Shaders ein optionaler Bestandteil von DX12:
https://www.golem.de/news/asynchron...ichtige-dx12-funktion-fehlen-1509-116107.html
Solltest du als Entwickler ja eigentlich wissen? Und wenn nvidia das nicht nötig hält zu implementieren kann da ja AMD wohl nichts für, die haben den Standard nicht definiert. Und das zeigt wiederum auch, dass sich nvidia eben nicht gerne an offene Standards hält!

Und was macht meine Aussage nun falsch, AMD habe bei diesem Feature Pionierarbeit geleistet, selbst wenn es ein optionales Directx12 Feature ist?
Ich kann dir nicht folgen, daraus kann man auch nicht schließen, Nvidia halte sich nicht an Standards.
Nvidia hatte bis Vega auf ihren GPU´s sogar mit Maxwell und Pascal das höhere Directx12 Feature Level.
Zu nennen wären hier raster order views oder conservative rasterization.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Wobei man sagen muss, dass sie gerade bei The Witcher 3 auch eine Selbstfindungsphase hatten (Stichwort: Diskussion bezüglich Grafikdowngrade/anfänglicher Kopierschutz).

Da rückten sie ja auch erst nachdem das Kind in den Brunnen gefallen war mit der Wahrheit raus, dass sie die Globale Beleuchtung für den PC eingestampft haben, weil es die Konsolen nicht gepackt haben.
....

Whuuuups*?!
Das habe ich noch nicht gehört. Erklärt jedoch einiges.
Danke für die Info.
Ergänzung ()

ZeroZerp schrieb:
Da hast Du was in den falschen Hals bekommen. Battlefield V funktioniert mit DXR.
https://www.heise.de/ct/artikel/Bat...tes-Spiel-mit-DirectX-Raytracing-4227234.html
Danke für den Link.
Ich befürchte es ist eine Frage der Interpretation.
Ich finde zwar auch mit dem Satzbeginn redet Heise noch davon, dass es ein DX Standard ist der benutzt wird. Das sugeriert, wir könnten alle in balde unsere DX12 Grafikkarte benutzen.
Jedoch basiert ja RTX auf DX12 und setzt noch ein Windows10 Update voraus.

Heise schreibt dann noch weiter, dass eine RTX Grafikkarte vorausgesetzt wird und es NUR auf der läuft. Was wiederum meinen ursprünglichen Informationstand wiederspiegelt.

Hier läuft nur RTX (aufbauend auf DXR Standard).
 
Zuletzt bearbeitet:
Pleasedontkill schrieb:
Jedoch basiert ja RTX auf DX12 und setzt noch ein Windows10 Update voraus.

Heise schreibt dann noch weiter, dass eine RTX Grafikkarte vorausgesetzt wird und es NUR auf der läuft. Was wiederum meinen ursprünglichen Informationstand wiederspiegelt.

Hier läuft nur RTX (aufbauend auf DXR Standard).
Das stimmt schon. NVidia nennt deren Technikimplementation RTX. Und da es von keinem sonstigen Hersteller diesbezüglich irgendetwas gibt, kann es auch nicht benutzt werden.

DXR ist aber offen. Das bedeutet, dass BFV durch DXR die Spiegelungen auf jeder Hardware darstellen könnte, die diese Schnittstelle bedienen kann.
 
Bärenmarke schrieb:
Hier habe ich durch AS auch eine Reduzierung der Qualität (dass dies vollkommen anders geschieht ist mir bewusst, ich frag mich auch wieso man mir das hier immer unterstellen möchte?

Ganz einfach, weil das dein Hauptargument gegen adaptive shading ist, da man ja mit einfachem nach links schieben des Reglers denselben Effekt erreicht und so ist es nunmal nicht, das ist sogar ziemlich naiv und bar jeder Grundlage.
Bereits mit "aubalanciert" erhält man ein optisch vergleichbares Ergebnis, selbst mit Performance, außer dieser einen Szene, was ich eher auf eine noch nicht ausgereifte Abtastrate schieben würde,hat man 1:1 dasselbe Bild.
Lies doch bitte die Doku des Features auf Github oder nutze den Link einer meiner letzten Beiträge.
Dort ist die komplette Doku vorhanden und dann verstehst du vielleicht auch wie es arbeitet.
Das läuft nämlich deinen Behauptungen komplett zuwider.

"Selbstverständlich, denn wenn ich die Settings von very high auf high ändere, dann hab ich den gleichen Effekt. Ob du dass dann erst im Detail siehst, sei mal dahingestellt. Aber wofür brauche ich ein Feature das mir die Performance zulasten der Qualität erhöht?"

Ich kann es nur nochmal sagen. Das ist nicht vergleichbar und somit falsch.
Genausowenig wird das zu Lasten der Qualität erhöht, wenn du dir mal ansiehst wie adaptive shading arbeitet.
Ist das sauber implementiert, bringt das 1:1 die gleiche Qualität, ohne BQ Verlust und es tut etwas ganz anderes als wenn man Regler nach links schiebt.

Das ist für zukünftige Entwicklungen ein ziemlich mächtiges Tool, aber was red ich schon.
Es ist einfach offenbar nur deiner Tendenziösität geschuldet, warum die Debatte an der Stelle weiter keinen Sinn ergibt. Weil man dir eben einfach null sagen oder erklären kann, dabei waren meine Argumente völlig in sich schlüssig.
 
Zuletzt bearbeitet:
Schnefferaunzn schrieb:
Doch, das ist eine Verschwörung.
Wenn man behauptet das sei in jedem Spiel das Tesselation einsetzt so, obwohl das erste gefundene Beispiel (Andromeda) das Gegenteil zeigt, ist das einfach eine Verschwörungstheorie.

Den Tesselationsfaktor bestimmt letztendlich immernoch der Entwickler und nicht Nvidia.
Das heißt aber nicht, dass es nicht ein paar Spiele gibt wo der Faktor zu hoch ist. (Witcher, Crysis 2 zum Beispiel)
Aber generell nicht. Und da muss man sich schon fragen ob AMD das so richtig macht, wenn man schon Nvidia bezüglich Adaptive Shading des Cheatings bezichtigt.
Ich bin da ja generell neutral, das heißt ich möchte mich gar nicht über die Tesselationsbremse von AMD beschweren, denn in Ausnahmefällen kann das für den Nutzer besser sein. Max BQ gegen mehr Leistung zu tauschen.
Ich bin schon gespannt wie du damit ein unsichtbares, tesseliertes Meer in der Stadt oder auf subpixel Ebene tesselierte Betonklötzer rechtfertigen willst die z.B. bei Crysis 2 zum Einsatz kamen. So unfähig kann nun wirklich keiner sein. Und zum Thema "Den Tesselationsfaktor bestimmt letztendlich immernoch der Entwickler und nicht Nvidia.", dir ist schon klar das nvidia an der Entwicklung vieler Spiele aktiv beteiligt ist und sie bei einer Blackbox wie Gameworks als einzige die volle Kontrolle und den vollen Einblick in die darin enthaltenen Funktionen haben?

Einzelne positiv Beispiele rechtfertigen keinen grundlegene Schieflage.
Nvidia versteht es sehr gut sich zu übervorteilen indem man auf kosten des Kunden gezielt schwächen ausnutzt (Tesselation), Leistungsbremsen schafft (beschleunigtes PhysX) oder gleich Features auf die eigenen Produkte begrenzt. Das ist ein grundlegener Bestandteil von deren Produktpolitik.
 
Wadenbeisser schrieb:
Einzelne positiv Beispiele rechtfertigen keinen grundlegene Schieflage.
Nvidia versteht es sehr gut sich zu übervorteilen indem man auf kosten des Kunden gezielt schwächen ausnutzt (Tesselation), Leistungsbremsen schafft (beschleunigtes PhysX) oder gleich Features auf die eigenen Produkte begrenzt. Das ist ein grundlegener Bestandteil von deren Produktpolitik.

Genau- Und wenn Du eine Firma hättest, würdest Du natürlich alles open Source machen, die Konkurrenz überall einbinden, keine Schwächen des Konkurrenten ausnutzen und alles für Lau anbieten und die Eigenentwicklungen für die Konkurrenzprodukte optimieren.
Es geht hier um Business! Das ist kein Wohlfahrtsverein!

Zudem verschweigst auch Du, dass bei der Drahtgitterdarstellung in Crysis2 das Culling deaktiviert wird und somit Dinge angezeigt werden, die im normalen Berechnungslauf garnicht berücksichtigt werden.

Dennoch stimme ich damit überein, dass nVidia durch den hohen Einsatz von Tesselation versucht hat, sich Vorteile zu verschaffen.

Und nochmal... Die Gameworks- Bibliotheken sind ab Lizenzierung für das Entwicklerstudio schon länger in den Sourcen verfügbar und dürfen auch geändert bzw. optimiert werden.

Die Blackbox war mal...
 
Zuletzt bearbeitet:
v_ossi schrieb:
Aber die ganze Technik und zukünftiges Schindluder dahinter direkt in den Vordergrund zu stellen finde ich etwas ... paranoid?

Ich unterstelle ja auch nicht jedem Menschen mit einem Messer in der Hand, er könnte morgen Jemanden erstechen. Vlt. ist er/sie einfach nur ein Koch/eine Köchin.

Ich finde, dass es ein sehr schmaler Grat ist zwischen paranoid und blauäugig. Man wird doch ununterbrochen an der Nase herumgeführt, sei es von Medien, Politik, Marketing, Banken, Firmen...

Nicht verwunderlich, wenn allem erstmal mit Skepsis und Misstrauen begegnet wird. Ob gerechtfertigt oder nicht, stellt sich sowieso erst im Nachhinein heraus. Aber immerhin führt das dazu, die Sache genauer unter die Lupe zu nehmen
 
@ZeroZerp
Wenn du dich darüber freust wenn zu deinem Nachteil sinnlos Rechenleistung verpulvert wird um die Konkurrenz auszubremsen dann ist das dein Problem, an der Stelle empfehle ich dir dringend beim nächsten Hardware Kauf einen Blankoscheck an nvidia zu schicken um deren Gewinn noch weiter zu maximieren. Sie sind schließlich kein Wohlfahrtsverein und damit offensichtlich auch nicht verpflichtet im Interesse des Kunden zu handeln.

Zudem verschweige ich garnichts denn die Tesselation bläst schließlich primär die Polygonen der Modelle auf, auf die dann am Ende die Texturen, Effekte usw. derst drauf kommen. Wurde dieser Teil des Rendervorgangs beim Culling ebenfalls weggelassen? Ich glaube kaum denn so wie ich die Funktion verstanden habe setzt es erst nach der Polygonenberechnung an, womit die dafür erforderliche Rechenleistung dennoch verbraten wird, das Ergebnis am Ende aber nicht sichtbar ist. Damit ändert Culling am grundsätzliche Problem absolut nichts sondern versteckt es lediglich.
 
Volkimann schrieb:
Ich verweise wieder auf die Barrikade und @duskstalker Beitrag.

Du willst also mutmaßen das ein Team, das eine für die Zeit gerade zu grandiose Engine entwickelt hat und sich mit internationalen Mitbewerbern messen konnte, bei einer simplen Barrikade Polygone ohne Ende hinrotzt, aber bei NPCs nicht mal einen Bruchteil dessen erhält, und das nicht einer mitbekommt?

Und das ausgerechnet bei einem nvidia "gesponserten" Spiel? Ein Schelm wer böses dabei denkt.
Oh dann bin ich wohl ein Schelm.
Ich habe das damals auf einem Core 2 Quad 6600 und ner Radeon HD5870 gespielt. Ich finde bis heute noch nicht, dass es auf AMD Karten schlecht lief. Eventuell haben die Entwickler die Tesselierung ja auch nur so intensiv genutzt, weil es so gut aussah. Und natürlich weil sie es konnten. Wenn ich darüber nachdenke was Crytek in seinem damaligen Zustand mit RTX Karten zaubern könnte.... Ev könnte Jensen da ja mal reigrätschen... gefallen hat es ihm ja offensichtlich.
 
Wadenbeisser schrieb:
Ich bin schon gespannt wie du damit ein unsichtbares, tesseliertes Meer in der Stadt oder auf subpixel Ebene tesselierte Betonklötzer rechtfertigen willst die z.B. bei Crysis 2 zum Einsatz kamen.

Wieso sollte ich das rechtfertigen? Ich habe doch ausdrücklich mehrfach gesagt, dass diese Faktoren unsinnig und zu hoch sind, was hast du gelesen, von dem ich nichts weiß?

Wadenbeisser schrieb:
Den Tesselationsfaktor bestimmt letztendlich immernoch der Entwickler und nicht Nvidia.", dir ist schon klar das nvidia an der Entwicklung vieler Spiele aktiv beteiligt ist und sie bei einer Blackbox wie Gameworks als einzige die volle Kontrolle und den vollen Einblick in die darin enthaltenen Funktionen haben?

Gameworks war für Entwickler nie eine Black Box, wie soll das auch funktionieren.:freak:
So hoch ist die Abstraktionsebene dann auch nicht.
AMD musste reverse engineering betreiben, da sie auf den Code keinen Zugriff haben.
Wadenbeisser schrieb:
Einzelne positiv Beispiele rechtfertigen keinen grundlegene Schieflage.

Einzelne Negativbeispiele (wo eine Schuld Nvidias erst einmal nachgewiesen werden müsste) rechtfertigen auch keine Verschwörungstheorien nach dem Motto, jedes Spiel das Nvidia gefördert ist, hat Tesselation mit ungerechtfertigt hohen Faktoren implementiert und nix anderes sage ich und so sind auch die Fakten, die mittels Beispiel hier auch schon veranschaulicht wurden.

Wadenbeisser schrieb:
@ZeroZerp
Wenn du dich darüber freust wenn zu deinem Nachteil sinnlos Rechenleistung verpulvert wird um die Konkurrenz auszubremsen..

Das ist nach wie vor eine Unterstellung ohne Beweis.
Ergänzung ()

Wadenbeisser schrieb:
Zudem verschweige ich garnichts denn die Tesselation bläst schließlich primär die Polygonen der Modelle auf, auf die dann am Ende die Texturen, Effekte usw. derst drauf kommen. Wurde dieser Teil des Rendervorgangs beim Culling ebenfalls weggelassen? .

Ja, die Effekte kommen dann auf die Texturen"drauf".:lol:
Informier dich erstmal was die 4 Varianten von "culling" sind und wie sie arbeiten.
Natürlich werden diese objekte die nicht im Sichtbereich liegen können erst gar nicht gezeichnet.
Das trifft auf die Polygone, genauso wie auf die Tesselierung zu.
Warum in Crysis 2 übertesseliert wurde, liegt doch auf der Hand. Zeitersparnis. Würde ich ganz genauso betreiben, tesselation by fixed factor, spart ne menge Zeit, habens halt bei der density der mesh triangles bisschen übertrieben.
Das wurde damals später erst als pack zum download angeboten, ja da steckt man halt nicht so viel Liebe bei den assets rein.
 
Zuletzt bearbeitet:
@Schnefferaunzn
Eher Ignoranz seitens der Kundschaft denn überzogene Tesselation sind der Inbegriff von sinnlos verbrannter Rechenleistung.
Polygone die kleiner als ein Pixel sind sind vollkommen nutzlos, ebenso Polygonen für Sachen zu rechnen lassen die dort garnicht existieren dürften.

Damit hast du letztendlich auch deinen Beweis für verbrannte Rechenleistung zum Nachteil des Kunden denn das schlägt sich direkt in der Performance des Spiels nieder.

Des weiteren Übertesselation war es lange Zeit eher gängige Praxis, vor allem dann wenn nvidia in der Entwicklung mit drin saß und ja, nvidia hat einen erheblichen Einfluss auf die Entwicklung. Waren sie es nicht auch die beim ersten Crysis nicht unerhebliche Teile des Shader Codes lieferten? Auf was der wohl optimiert war?

Wenn du schon schreibst das AMD reverse engineering betreiben musste im etwas optimieren zu können, warum streitest du dann die gezielte Behinderung der Konkurrenz ab? Das ist die Behinderung der Konkurrenz schließlich mehr als offensichtlich. Zum einen erkauft man sich Zeit in der man sich in den ersten Benchmarks übervorteilt (wieviele schauen nochmal nach Wochen oder gar Monaten drauf...?) und zum anderen kan man den Code an sich von Anfang an für die eigene Hardware Architektur optimieren und daran hat sich meines wissens anch bis heute nichts geändert. Ja die Entwickler haben mehr Einfluss auf die Funktionen aber der grundsätzliche Code und damit die Möglichkeit hardwarespezifische Code Optimierung ist bis heute verschlossen. Viel hat sich bei Gameworks also nicht geändert.

Zudem solltest du nochmal nachlesen worum es bei den 4 Culling Varianten geht und um welche es bei dem genannten Beispiel geht.
https://de.wikipedia.org/wiki/Culling

2 reduzieren lediglich die vorgerechneten Dreiecke (was die Tesselation daraus macht?) und 2 dürften sich dafür recht wenig interessieren weil es ihnen um die Einsparungen von Berechnungen nach der Polygonenerzeugung geht.
Stelle dir nur mal eine einfache Frage. Wie soll man feststellen ob etwas verdeckt wird wenn nichts (Polygonen) da ist mit dem man das prüfen könnte?


Schreibe doch einfach dass es dir egal ist was nvidia treibt weil dir ganz warm ums Herz wird zum elitären Kreis der Geforce Besitzer zu gehören denn du bezahlst schließlich nicht nur für das Produkt sondern auch für das Gefühl und das ist schließlich jeden Preis wert.....wie bei Apple.
 
  • Gefällt mir
Reaktionen: ampre
Was für ein faszinierender Thread. Unglaublich ihr.

Wenn ihr Euch selbst hören könntet.

Wie kann man sich nur für oder gegen einen Hardwarehersteller derart echauffieren? Ist das ECHT Euer Lebensinhalt?
 
  • Gefällt mir
Reaktionen: guillome, tidus1979, kisser und eine weitere Person
@Grestorn
Gegenfrage.
Wie kann man sich nur über *hier beliebige Hersteller Mauschelei zu dessen Übervorteilung und zum Nachteil des Kunden einfügen* derart aufregen. Ist das ECHT euer Lebensinhalt?
 
Wadenbeisser schrieb:
@Grestorn
Gegenfrage.
Wie kann man sich nur über *hier beliebige Hersteller Mauschelei zu dessen Übervorteilung und zum Nachteil des Kunden einfügen* derart aufregen. Ist das ECHT euer Lebensinhalt?
Nein, wir habe Computer Gaming als Hobby. Wenn wir keinen anderen Lebensinhalt hätten, könnten wir uns von den Herstellern nicht ausnehmen lassen.
 
  • Gefällt mir
Reaktionen: Schnefferaunzn und Grestorn
Gut das ich nicht als 100%iger Selbstversorger im Wald hocke und mich über sowas aufregen kann. :D
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wadenbeisser schrieb:
@ZeroZerp
Wenn du dich darüber freust wenn zu deinem Nachteil sinnlos Rechenleistung verpulvert wird um die Konkurrenz auszubremsen dann ist das dein Problem, an der Stelle empfehle ich dir dringend beim nächsten Hardware Kauf einen Blankoscheck an nvidia zu schicken um deren Gewinn noch weiter zu maximieren.
Ich weiss was Du meinst. Hatte ja auch vorher schon geschrieben, dass nvidia/die Producer da Blödsinn getrieben haben. Nur ist die Frage, ob das tatsächlich böswillig war. Denn letztendlich hat man sich dadurch ja auch ein wenig ins eigene Fleisch geschnitten. da kann man viel spekulieren...

Sie sind schließlich kein Wohlfahrtsverein und damit offensichtlich auch nicht verpflichtet im Interesse des Kunden zu handeln.
Das würde der Markt relativ schnell bestrafen.

Zudem verschweige ich garnichts denn die Tesselation bläst schließlich primär die Polygonen der Modelle auf, auf die dann am Ende die Texturen, Effekte usw. derst drauf kommen. Wurde dieser Teil des Rendervorgangs beim Culling ebenfalls weggelassen?
Genau- Das Culling setzt vor der Rasterisierung ein, sonst wäre es relativ nutzlos. Es ist ja gerade der Witz des Systems, verdeckte Dreiecke eben nicht zu rastern - Das kann auch auf Objektebene passieren, dazu braucht man aber dann z.B. die Middleware Umbra.

Die primitive Shader und das Mesh Shading hat da z.B. enorme Vorteile. Dadurch, dass quasi die gesamte Szene im Puffer der Grafikkarte bearbeitet werden kann, kann diese dann unter Anderem auch gleich ein extrem effizientes, schnelles culling durchführen. Unter Anderem deshalb liegt in der Technik ein großes Geschwindigkeitspotenzial.
 
  • Gefällt mir
Reaktionen: Hias_L und Schnefferaunzn
Die Produkte von NVIDIA sind gut. Mashshader sind Prima.

ABER:
Was Lederjacke so treibt?
- AMD soll schuld sein dass NVIDIA zu viel Produziert hat? Seit wann verlässt man sich auf Aussagen seines engsten Feind?
- GTX970 ist immer noch ein Feature und kein Bug
- GPP
- Crapy Gameworks

@ZeroZerp
Wo hat der Markt jemals etwas von den oben genannten Punkten bestraft? Die GTX 970 verkaufte sich blendend. Schaut man heute in Benchmarks ist sie nur Schrott im Gegensatz zur 390
 
ampre schrieb:
Wo hat der Markt jemals etwas von den oben genannten Punkten bestraft? Die GTX 970 verkaufte sich blendend. Schaut man heute in Benchmarks ist sie nur Schrott im Gegensatz zur 390

Siehe Performance- Summary:
https://www.techspot.com/review/1410-gtx-970-radeon-390-years-later/page12.html

Der Markt hat die 970 deswegen nicht bestraft, da sich die Unzulänglichkeiten in der durchschnittlichen Betriebsphase der User nicht negativ ausgewirkt haben und die Karte ein Preis-/Leistungskracher war.

Ich finde die Gameworks- Effekte schön anzusehen. Die Monster mit Fell bei Witcher 3 sahen einfach geil aus:

Jetzt kann man natürlich wieder sagen, dass der Effekt unverhältnismäßig viel Leistung frisst. Aber so ist das halt inzwischen. Die Dinge, die das Spiel organisch machen sind in Sachen Rendering einfach "teuer".

Mit GPP sind sie meiner Meinung nach übers Ziel hinausgeschossen. Und diese Geschichte, dass AMD schuld sein soll, dass nvidia große Restbestände an GPUs haben, wird nur mal wieder von den deutschen Medien aus dem Zusammenhang gerissen:
https://venturebeat.com/2018/11/17/...ed-nvidia-to-lose-23-billion-in-market-value/

Er schreibt mit nichten, dass AMD an irgendwas schuld sei. Er schreibt, dass sie die Anzahl der Chips, mit denen AMD den Markt geflutet hat, unterschätzt haben.
Somit sei mehr Angebot (auch für Spieler) dagewesen als Nachfrage und das übliche Verhältnis der Grafikkartenverkäufe hat sich aufgrund des entsprechenden Überangebotes/Preisbebens komplett abseits der Zahlen bewegt, die sonst für diese Grafikkartenklasse üblich war, hat sich unüblich stark in Richtung AMD bewegt.

Er sagt zudem, dass die Kalkulation von nvidia in diesem Fall nicht aufgegangen sei und dass er wüsste, dass das nicht hätte passieren sollen.

Abschliessend:
Der Thread bewegt sich schon wieder immer mehr in Richtung des üblichen nVidia Hates, ohne das eigentliche Thema im Blickfeld.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, Hias_L und Grestorn
Zurück
Oben