Beitrag schrieb:
Ich will dir mal glauben, wenn du sagst, du arbeitest bei einem Distributor, wirklich nachvollziehen kann ich es aber nicht. Entweder es gab Preisgarantien oder man zieht nach.
Im B2B Markt, besonders wenn du Zulieferer bist - wie AMD und NVIDIA hier - gehst du mit deinen Kunden anders um. Hier werden Verträge nicht auf Monatsbasis geschlossen, sondern auf wesentlich längere Zeiträume, mit entsprechenden Preisgarantien und du ziehst nicht während des laufenden Vertrages die Kosten einfach so an, das geht nicht einfach.
Die Möglichkeit "Preiserhöhungen" durchzudrücken, besteht oft nur, wenn man die Lieferverträge einseitig kündigt und dann wird es für NVIDIA unangenehm. Man zerstört das Vertrauen, hat die Vertragsstrafe und am Ende ist man ggf. sogar Schadensersatzpflichtig und hier reden wir dann nicht mehr von Peanuts, sondern dass die eigentliche Preissteigerung mehr als aufgefressen wird und NVIDIA vom Gericht auch zum alten Preis verdonnert werden kann.
NVIDIA wird die Preise aber auch angezogen haben, aber eben nicht sofort, sondern erst bei Nachbestellungen und wenn die Folgeverträge geschlossen wurden.
S.Kara schrieb:
Hast du denn Informationen dass AMD und Nvidia weniger optimieren müssen?
NVIDIA und AMD arbeiten seit Jahren daran, dass sie wirklich auf ein Spiel spezifisch vorgenommene Optimierungen vermeiden, das ist auch ein Grund, warum AMD damals Mantle vorstellte und sich DX12 und Vulkan ergeben haben.
Intel hat in einem Interview bereits zugeben, dass sie neben den üblichen Optimierungen, was AMD und NVIDIA als Profile für Spiele hinterlegen, deutlich tiefgreifendere Änderungen gerade an Shadern vornehmen.
AMD und NVIDIA passen Shader von Spielen in der Regel aber nicht an und die optimierten Treiber von NVIDIA und AMD bringen in der Regel < 5 % an zusätzlicher Leistung. In den Profilen werden Anweisungen für verschiedene Codepfade im Treiber, Anweisungen für Speicher- und Cacheverwaltung, Compileranweisungen für den Shader (Flags) mitgeben, ansonsten wird alles Weitere vermieden, weil man die Büchse der Pandora öffnet.
Intel wiederum muss tiefgreifende Änderungen an den Shadern vornehmen und das fängt bei Anweisungen zu den Wavefronten an - wird per Compilerflag entschieden, macht NVIDIA und AMD auch, geht bei Umsortierung der Befehle weiter - ist auch über eine Flag steuerbar und kleines 1 * 1 des Compilers. Intel ersetzt dazu allerdings auch ganze Codeblöcke in den Shadern, was über Anpassungen der Wavefronten und Umsortierung der Befehle hinausgeht. Entsprechend schafft hier Intel auch Werte x > 10 % (14 %).
Auch hat Intel in ihrem Interview aus zugeben, dass sie auf massive Anpassungen durch die Spieleentwickler angewiesen sind, weil der aktuelle Code, der da produziert wird, zwar den anderen beiden Anbietern schmeckt, aber nicht ihrer Grafikkarte.
Es gibt halt aktuell ein großes Problem: Die Spieleentwickler kennen AMD und NVIDIA und beide lege sich zwar durchaus "Steine" in den Weg, wenn sie bei einem Spiel bei der Optimierung helfen, da geht es aber oft eher darum, dass man spezifische Stärken der Architektur ausspielt - NVIDIA hat lange Zeit massive Tesselation-Faktoren gewählt, die AMD nicht verkraftet, AMD wiederum hat die ASYNC-Fähigkeiten der GCN in den Fokus gerückt. Der allgemeine Shadercode haben aber beide Entwickler "generell" optimiert, sodass beide Firmen davon profitiert haben.
MasterAK schrieb:
Und Intel hat XESS, was so ein Upscaling wie FSR / DLSS ist.
Ob es wirklich so wie FSR 2.0 oder DLSS arbeitet, wird man abwarten müssen. Was bisher an Informationen vorhanden ist, steigt XeSS etwas früher aus als FSR 2.0 und DLSS und könnte daher auf der einen Seite bestimmte Bildfehler vermeiden, auf der anderen Seite könnte der Leistungssprung am Ende nicht so hoch sein, wie man erwartet.
Powl_0 schrieb:
Als DLSS Alternative will Intel XeSS etablieren (auch mit Deep Learning Anteil).
Auch wenn Intel DL verwendet und eine temporale Komponente, kann die Arbeitsweise sich vion DLSS und FSR 2.0 deutlich unterscheiden.
So wie ich es bisher verstehe -
Computerbase hat ja XeSS vorgestellt, mit einer entsprechenden Grafik - kommt zwar Deep Learning und eine Temporale-Komponente zum Einsatz, gleichzeitig steigt XeSS vor DLSS und FSR 2.0 aus, nämlich nach dem Rastern des Bildes. Ebenso wird die Auflösung des Bildes anders heruntergebrochen.
XeSS arbeitet mit einem Jitter, in dem Fall - wenn man die Informationen und Grafiken nimmt - wird das Bild mit der eigentlichen Auflösung gerendert, nur dass eben Zeilen ausgelassen werden. Das verringert die Auflösung auch, erzeugt aber ein anderes Bild, das anders gefüllt werden muss.
Die Frage, die sich mir aktuell stellt: Was meint Intel mit Raster & Lightning und anschließend Post Process, das könnte entscheidend werden. Ist es so, wie ich die heutige Pipeline kenne, dann steigt XeSS einen Schritt vor FSR 2.0 und DLSS aus, dann laufen in verringerter Auflösung die Vertex-Shader und nur ein Teil der Pixel-Shader ab, dann wird das Bild zusammen gesetzt und weitere Effekte wie SSOA und Co werden anschließend berechnet bei voller Auflösung.
Intels Ansatz könnte gewisse Probleme vermeiden, da diese überhaupt nicht auftreten, an andere Stelle könnte das Plus an Leistung geringer ausfallen.
Man wird abwarten müssen.