• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

bardh schrieb:
DXR ist eine mit Microsoft und AMD entwickelte API.

Ich stimme Deinem Post überwiegend zu, aber an der Stelle muss man eingrätschen: nVidia haben DXR gemäß damaliger Pressemitteilung von Microsoft maßgeblich mitentwickelt und ich bin mir sehr sicher, dass der Anteil von nVidia am Ganzen wesentlich höher als bei AMD gewesen sein muss.
Warum? Weil AMD zum Erscheinen von DXR noch nicht mal RT-fähige Hardware hatten. Die waren ja weeeeiiiit hinten dran und die ersten RT-fähigen AMD Karten kamen erst lange nach der nVidia Hardware auf den Markt.
 
TKessel schrieb:
Wenn man sich wenigstens darauf einigen könnte, dass die Bildqualität "etwas" schlechter ist, dass lasse ich mir ja noch gefallen, es wird aber so getan als sei sie generell mies.
Kommt auf die jeweilige Implementierung an, die Mehrheit der FSR(2) Implementierungen sind in der Tat nicht "generell mies".
Aber es reicht ja schon, wenn DLSS im Allgemeinen so viel besser aussieht, dass man dort wo beides vorhanden ist, den Unterschied bemerkt, damit es ein Nachteil ist, wenn ein Spiel kein DLSS bietet, obwohl die eigene Hardware es beherrscht.
 
  • Gefällt mir
Reaktionen: Quidproquo77, RogueSix und .Sentinel.
RogueSix schrieb:
Weil AMD zum Erscheinen von DXR noch nicht mal RT-fähige Hardware hatten. Die waren ja weeeeiiiit hinten dran und die ersten RT-fähigen AMD Karten kamen erst lange nach der nVidia Hardware auf den Markt.
RT fähig ist grundsätzlich erstmal jede Hardware, eine RT Berechnung in Echtzeit so durchzuführen, dass man auch von Echtzeit reden kann ist etwas anderes. Korrekt ist also, dass die AMD Karten keine speziellen Bereiche auf der Hardware hatten welche für die RT Berechnung speziell vorgesehen waren.
 
  • Gefällt mir
Reaktionen: Cleanor
KamfPudding schrieb:
Meh. AMD Partnerschaft bedeutet für mich meist nur eine rudimentäre bis schlechte Integration von RT.

Bethesda und Creation Engine bedeutet doch schon automatisch, dass Raytracing nicht "State of the Art" implementiert wird.

Da kann die AMD Partnerschaft nichts mehr kaputt machen.
 
  • Gefällt mir
Reaktionen: Celinna, Redundanz und Atnam
bardh schrieb:
Die Wirtschaftlichkeit hängt auch davon ab wie viel Cash AMD rüberwachsen lässt.
Wenn es davon abhängt wird es ein ziemlich schlechtes Spiel, dann will ich es nicht.
Taxxor schrieb:
Natürlich könnte Nvidia sagen, dass etwas nicht eingebaut werden darf als Bedingung für ein Sponsoring.
Die Entwickler werden abwägen was sie machen, wenn sie eine breite Basis haben wollen werden sie beide bzw. alle 3 Standards einbauen.
Taxxor schrieb:
Genau wie AMD das umgekehrt tun kann.
Was sie aber nicht tun, weil in welches Lager würden die Entwickler dann wohl gehen?
TKessel schrieb:
Das war auch einer meiner Ursprungsgedanken, dass FSR ja in der Theorie auf den Konsolen auch funktionieren können sollte, auf der XBox auf jeden Fall. Ob es dort zum Einsatz kommt kann ich nicht nachvollziehen bisher.
Wenn in den Konsolen Nvidia Chips werkeln würden kannst du sicher sein das da dann auch DLSS ginge.
.Sentinel. schrieb:
Auch wenn ich es selbst höchst bedauerlich finde, dass Vulkan nicht mehr Beachtung findet und gerne damit arbeite, sieht die Realität aber doch anders aus.
Vulkan soll im Vergleich zu DirektX aber aufwändiger zu programmieren sein?
Taxxor schrieb:
Auch als Besitzer einer 4090 ist es doch positiv, wenn man durch DLSS die gleiche Bildqualität bei niedrigerem Verbrauch bekommen kann.
Relativiert das nicht den Anschaffungsgrund einer Highend Karte? Seht her gleiche Bildqualität und verbrauch die du auch mit einer kleineren Karte hättest haben können und das günstiger?
 
DevPandi schrieb:
Das ist - neben einer Meldung - für solche Personen eigentlich das Beste, was man machen kann.
Das beste ist, wenn man sachlich bleibt und Falschdarstellungen aufgreift, siehe Unreal Engine 4.
Da hast du in deinem Falle mit deiner "Recherche" ja noch einiges zu korrigieren.
 
bardh schrieb:
Dann hast du AMD´s Bundles Callisto Protokoll und Jedi:Survivor mit der Unreal Engine 4 einfach in den 4 Stunden Recherche übersehen?
Lesen ist scheinbar nicht wirklich deine Stärke, oder du willst du hier um jeden Preis "recht" behalten und alle anderen provozieren?
DevPandi schrieb:
Jedi Survivor2.1-AMD
Jedi Survivor steht in der Liste, entsprechend mit den Markierungen
DevPandi schrieb:
The Callisto Protocol2.1-AMD
Auch das Spiel steht mit den entsprechende Markierungen.

Und ich habe folgendes dazu geschrieben:
DevPandi schrieb:
Sobald es um stark modifiziere Engines geht oder um Eigenentwicklungen, entscheided primär der Partner/Sponsor, was implementiert wird, dass ist gerade bei den kleineren Studios so.
Und bei beiden Spielen äußern sich Leute, die sich damit mehr befassen können, als ich, so, dass diese Engines durch die Entwickler scheinbar stark angepasst/modifiziert wurden:
https://www.pcgameshardware.de/The-...lay-Release-Raytracing-Unreal-Engine-1402485/

Bei dem Artikel hoffe ich, dass ich den richtigen erwischt habe: https://www.pcgameshardware.de/Star...cials/Tech-Test-PC-Review-Benchmarks-1418501/

-- Edit --
So, da ich da auch noch etwas weiter suche: Sowohl für die verwendete Version der UE4 für Callisto Protocol als auch Jedi Survivor finde ich gerade in den Dev-Support von NVIDIA ein paar interessante "Informationen" in Form von Bug-Reports. Ob diese nun valide sind oder an der Unfähigkeit der Entwickler liegt, die da meckern, kann ich nicht beurteilen.

Callisto Protocoll scheint die Engine Version 4.27 zu verwenden, gleichzeitig eben stark modifiziert und das DLSS-Plugin scheint gerade mit Version 4.27 zwar "Supportet" aber eben nicht problemlos und einfach zu funktionieren. Was daran ist? Keine Ahnung. Aber wenn wir schon "halbgare" Informationshappen und Indizien verarbeiten, dann richtig.

Für Jedi Survivor scheint die Version 4.26 verwendet zu werden, dafür wiederum gibt es kein offizielles DLSS-Plugin - ob es mal eines gab, mag ich nicht zu beurteilen.

In dem Fall wäre dann die Frage: Wie gut sind die Entwickler hinter den Spielen und hatten sie die Ressourcen dazu oder ist in den Spielen FSR 2 auch nur drin, weil AMD die Implementation übernommen hat und die Studios sich das andere aus wirtschaftlichen Gründeng gesparrt hat.

Egal, auch das was ich da gefunden habe sind nur Indizien, jetzt halt entlastend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz, Iscaran, Rockstar85 und 3 andere
sikarr schrieb:
Was sie aber nicht tun-
Woran liegt es diener Meinung nach denn dann, das die Titel die in letzter Zeit nur eines von beiden geboten haben, überwiegend AMD Bundle Titel waren?
sikarr schrieb:
Relativiert das nicht den Anschaffungsgrund einer Highend Karte? Seht her gleiche Bildqualität und verbrauch die du auch mit einer kleineren Karte hättest haben können und das günstiger?
Wenn man durch ein Feature die Möglichkeit hat, weniger zu verbrauchen, ist es doch egal, wie stark die Karte ist, weniger Verbrauch sollte man immer gerne mitnehmen, egal in welchen Performance Bereichen.

Die kleinere Karte bietet ja auch weniger FPS, ich müsste DLSS hier also stärker runter drehen um auf die gleichen FPS zu kommen.

Schon ganz ohne über DLSS zu reden, sieht man ja, dass eine 4090 auf 300W limitiert immer noch ~20-25% schneller als eine 4080 ist, die auch ~300W zieht.

Wenn meine 4090 in einem Spiel 350W für 100FPS braucht und ich mit DLSS bei gleicher Bildqualität auf 200W für 100FPS komme, ist das erst mal positiv.

Wenn ich mir nun eine 4080 nehme, schafft diese bei 300W schon nur 75FPS, es muss also einiges von DLSS erst mal darin investiert werden, die FPS auf 100 zu bringen, erst dann kann ich von den 300W runter kommen und lande am Ende wohl eher bei ~250W

Und dann ist die 4090 natürlich auch langlebiger, denn während ich bei einem fordernderen Spiel nächstes Jahr dann z.B. mit der 4080 nur noch 60FPS bei 300W bekomme und die DLSS Stufe weiter runter ziehen muss, um überhaupt 100FPS bei 300W zu erreichen(was eine Steigerung von 66% und damit schon ziemlich viel ist), geschweige denn unter 300W zu fallen, wird sich bei der 4090 bei gleicher DLSS Stufe wie vorher einfach nur nur den Verbrauch von 200W auf 250-300W erhöhen.
 
  • Gefällt mir
Reaktionen: Celinna
Hylou schrieb:
Auf reddit häufen sich die Ängste das durch die Kooperation das RT wenig bis gar nicht vorhanden sein wird da sonst die AMD GPUs zusammenbrechen. Ähnlich zu Far Cry 6.
Oh Gott, kein RT. Wird sich die Welt weiterdrehen?! Naja solche Ängste möchte ich nicht haben müssen.
 
  • Gefällt mir
Reaktionen: Redundanz und Kuristina
Upscaling und Frame Generation sind eigentlich Dinge, wo sich inzwischen wohl jeder einig ist, dass die sehr hilfreich sind. Solche Dinge sollten weder Grafikkarten-exklusiv noch Spiele-exklusiv sein. Es sollte dafür eine Programmierschnittstelle existieren wie DirectX. Wie die jeweilige Firma das Feature implementiert (Treiber), sollen AMD, Nvidia, Intel vonmiraus selber entscheiden - nur sollte es halt über diese Schnittstelle erfolgen. Das wäre doch die beste Lösung anstatt dieses eigenbrötlerische, vertragsabhängige Gehabe, die nur bei speziellen Spielen, bei speziellen Grafikkarten, bei speziellen Versionen funktioniert... ist doch zum Kotzen...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Celinna
High Res Texturen und ordentliche HDR Implementierung wären auch viel wichtiger als ein paar Strahlen und dass alles ohne! Performanceimpact.
 
  • Gefällt mir
Reaktionen: Celinna, Redundanz, Hatsune_Miku und 2 andere
Dai6oro schrieb:
ordentliche HDR Implementierung wären auch viel wichtiger als ein paar Strahlen
Aber gerade mit HDR profitiert man dann letztendlich auch am meisten von guter Beleuchtung.
 
Völlig egal, welcher Hersteller das Spiel sponsored oder unterstützt: Ein Spiel, dass technisch nicht vernünftig läuft bzw. für die gebotene Optik / Spielwelt zu schlecht läuft und unverhältnismäßig hohe Anforderungen stellt, die sich objektiv nicht rechtfertigen lassen werde ich nicht mehr kaufen. Egal wie sehr es gehyped wird.

In letzter Zeit kommen immer häufiger Spiele heraus, die irgendwie "kacke" aussehen und dabei Anforderungen stellen die nicht angemessen sind und einfach grottig laufen weil der technische Unterbau Mißt ist.

Nein. Es wird nichts mehr gekauft, bevor es diverse Tests durchlaufen hat und man umfangreiche Erfahrungen in Foren zu lesen bekommt. Kein einziger Spieleentwickler ist meines Erachtens noch vertrauenswürdig (so, dass man etwas vorbestellen oder direkt zu Release kaufen könnte).

Und wenn sich ein Spielehersteller von einem Grafikkartenhersteller "kaufen" lässt und es im Anschluss auf bestimmer Hardware nicht so gut läuft, wie es sollte, dann wird es ignoriert. Das gilt auch für das große Starfield!

Läufts hingegen gut und sieht den Anforderungen entsprechend ansprechend aus, so ist es letztlich egal, wessen Logo vor dem Intro eingeblendet wird.


Interessant finde ich erneut, dass der Teufel Nvidia seit Jahren für "the Way it`s meant to be play" gescholten wird, es für viele umgekehrt beim Engel AMD aber total toll und ok ist wenn man genauso vorgeht.
 
sikarr schrieb:
Vulkan soll im Vergleich zu DirektX aber aufwändiger zu programmieren sein?
Wenn aufwändig im Sinne von kompliziert oder umständlich beschrieben ist, kann ich das nicht bestätigen. Was ich bestätigen kann ist, dass es für DX12 in den Bibliotheken mehr vorgefertigte Routinen/calls gibt.

Vulkan ist... Wie soll ich sagen- Das Linux unter den abstraction layern/Grafikschnittstellen. Wenn man weiss, was man tut, kann man es sehr effizient (und jetzt werden mich einige kreuzigen) bzw. grundsätzlich effizienter als DX12 arbeiten lassen. Die Optimierung auf Fast- Paths der jeweiligen Architekturen ist meiner Meinung nach einfacher zu realisieren.

Mit DX12 hat man doch immer das Gefühl zwar komfortabel arbeiten zu können, dafür aber mehr Ballast mitschleppen zu müssen.
Hat beides Vor- und Nachteile.
 
  • Gefällt mir
Reaktionen: sikarr
DevPandi schrieb:
Lesen ist scheinbar nicht wirklich deine Stärke, oder du willst du hier um jeden Preis "recht" behalten und alle anderen provozieren?
Ich habe die beiden Spiele in deiner Liste die von hier herauskopiert wurden schon gesehen.
Das ändert doch absolut nichts an deinen völlig irreführenden Aussagen die im Weiteren folgen.
DevPandi schrieb:
Jedi Survivor steht in der Liste, entsprechend mit den Markierungen
Das Spiel steht ohne Inhalt in der Kommentarspalte ganz oben, ohne darauf hinzuweisen, dass es ein Unreal Engine 4 Spiel ist, welches DLSS Nativ unterstützt. Das gilt auch für Callisto Protocol und sicher weitere.

Dein Hinweis auf eine "stark modifizierte" Engine ändert daran was? Das ist doch nur eine Ausrede es nicht verwenden zu müssen, ohne überhaupt zu wissen, was das im Genauen bedeutet.
Was ist die Definition für "stark modifizierte Engine"?
Du machst einen Nebenkriegsschauplatz auf nur um die Tatsachen nicht fair einräumen zu müssen. Du möchtest um jeden Preis recht behalten, gibst aber vor andere würden das wollen.
Die Fakten sind klar und für jeden ersichtlich. 4 von 5 bzw. 5 von 6 AMD bundles Games supporten kein DLSS. Auch für die Creation Engine und Starfield gibt es schon unabhängig entwickelte DLSS Mods, unter anderem für Skyrim.
 
Kann die Meinung von Fritz aus dem Video zu 100% unterschreiben!

 
  • Gefällt mir
Reaktionen: Quidproquo77, Celinna, Oxzymo und 2 andere
Redundanz schrieb:
solche dinge werden einfach unterstellt. sonst hätten einige ja keine diskussionsgrundlage :D
Kann auch sein das es daran liegt das AMD auf eine einfache Ja/Nein frage mit nichts sagendem PR Bullshit reagiert. Sorry, aber keine Antwort ist eben nun mal auch eine Antwort.

Der Spiele-Entwickler kann tun und implementieren was er will. Aber sobald von außen jemand kommt und aktiv die implemantation anderer Technologien verhindert geht das zu lasten des Konsumenten: Weniger Optionen haben ein Spiel noch nie besser gemacht.
 
  • Gefällt mir
Reaktionen: Celinna und Mucho79
Dai6oro schrieb:
High Res Texturen und ordentliche HDR Implementierung wären auch viel wichtiger als ein paar Strahlen und dass alles ohne! Performanceimpact.
Beleuchtung hat mit Texturierung/Assets usw. nichts zu tun. HDR ist wieder eine ganz andere Baustelle.

Und den Performance- Impact spürst Du inzwischen in jedem Unreal- Engine Spiel, welches für diese gerügt wird, weil per Shader X Texturlayer bzw. Material- Maps über die Objekte gelegt werden.
Das summiert sich nämlich erheblich seit physically based rendering angesagt ist und trägt zum Overflow, der inzwischen oftmals bei Titeln dort auftritt maßgeblich bei.
 
Zuletzt bearbeitet:
Zurück
Oben