• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

Iscaran schrieb:
Das ist leider bulllshit. Es ist nur geschicktes Clickbaiting und Framing seitens WCCFTech. Siehe dazu DevPandis geniale Posts.

Und du bist darauf reingefallen und framst gleich mit.

Korben2206 schrieb:
Korrekt. Aber auch nur weil AMD viel zu schwammig auf die Anfrage geantwortet statt mal eindeutig zu sagen "wir blockieren keine anderen Technologien" gibts nur bla bla... das haben sie sich selber eingebrockt. Da hatte nvidia mal ausnahmsweise den besseren PR-Manager und besser reagiert.

Jo hier kommt echt alles zusammen .. und AMDs Marketing machts wieder mal nur noch schlimmer mit nuligen Aussagen. WTFtech macht shit daraus, dazu gibs auf Twitter die Nvidia-Fanboys von Digitalfoundry ( https://twitter.com/Bullsh1t_buster/status/1673957595047141377 ) und noch paar andere die fett Stimmung gegen AMD machen, schon werden die Heugabeln verteilt. Hat super geklappt.

Das Nvidia nun plötzlich der gute hier ist .. bzw. so dargestellt wird. Na überlegt mal noch mal^^
Das Ganze geht auch sooo viel weiter, wie beispielsweise hier: https://twitter.com/matiasgoldberg/status/1673910440554889222
 
  • Gefällt mir
Reaktionen: Schtefanz, Redundanz, jo0 und 4 andere
@Dai6oro
Auf GSync Compatible merkst keinen Unterschied, ja. Wer aber einmal GSync Ultimate genutzt hat, kotzt bei allem anderen. Und so haben es auch schon viele andere hier im Thread bestätigt. Aber ja, die reden ALLE Bullshit und du hast die Ahnung.

Und heul ruhig weiter rum mit ausschließen, sie liefern einfach klar bessere Produkte als AMD, dann sollen die das der Konkurrenz schenken? Man merkt ganz klar, das es keine Führungskräfte hier auf CB gibt, denn diese würde sowas niemals schreiben.
 
  • Gefällt mir
Reaktionen: cb1906 und Celinna
... Sturm im Wasserglas...

Ich verzichte auf alle upscalingtechniken und will ein scharfes Bild :)
 
  • Gefällt mir
Reaktionen: Redundanz, Cynob und R O G E R
cunhell schrieb:
Nvidia hat, als PhysiX noch der heisse Scheiss war, die Implemetierung in den Games für ATI/AMD nur über eine unoptimierte CPU-Schnittstelle erlaubt. Selbst wenn eine Nvidia-Karte als PhysiX-Beschleuniger im System war, wurde die Verwendung dieser im Treiber verhindert. Es blieb also nur die grottige CPU-Version oder man musste es komplett abschalten.
Besser wurde es erst, als PhysiX an Bedeutung verlor.
Genau so die absurd hohen Tessationswerte bei Nvidia-gesponserten Titeln, die optisch nichts mehr gebracht haben, aber AMD mies aussehen liesen.


Cunhell
Es geht hier aber nicht um PhysiX oder sonst was sondern um DLSS und FSR.
Und da hat @ThirdLife halt Recht mit seiner Aussage.
 
Donnidonis schrieb:
@Dai6oro
Auf GSync Compatible merkst keinen Unterschied, ja. Wer aber einmal GSync Ultimate genutzt hat, kotzt bei allem anderen. Und so haben es auch schon viele andere hier im Thread bestätigt. Aber ja, die reden ALLE Bullshit und du hast die Ahnung.
Beides genutzt kein Unterschied. Messbar vielleicht der Rest ist Einbildung. Bei nem Doppelblindversuch kann man das nicht auseinanderhalten. Also ja Bullshit.
 
  • Gefällt mir
Reaktionen: Redundanz, graysson, Iscaran und 2 andere
Wieso wird hier so ein Aufstand gemacht?
Wo sind die News und Kommenatre zu 100 anderen Spielen, wo es ähnlich abläuft, dann meistens nur andersrum auf Kosten von AMD und der allgemeinen Zugänglichkeit von Features?
Na?
Ist ja plötzlich so leise hier.
Kauft doch einfach eine schnelle Grafikkarte.
Oder andere Spiele.
Man muss immer Kompromisse machen.
Spieler und auch Programmierer.
 
  • Gefällt mir
Reaktionen: Redundanz, graysson, R O G E R und eine weitere Person
Dann bilden wir uns das wohl alle nur ein, danke das du uns da noch einmal aufklärst. Absolut realitätsfern, aber danke auch für die Lacher am Vormittag.
 
Ich lach schon seit Beginn der News weil ich weiß wie viele Heuler hier unterwegs sein werden.
 
  • Gefällt mir
Reaktionen: d3nso
AvenDexx schrieb:
War das so? Ich bin mir da nicht sicher, aber wenn ich da mal spontan in den Test von FC6 hier bei CB schaue sehe ich, dass bei 4K nVidia mit der 3080 ti bei RT von 71,8 FPS auf 60,9 FPS fällt und AMD mit der 6900xt von 70,2 FPS auf 58 FPS fällt. nVidia verliert da also 10,9 FPS und AMD 12,2 FPS. Das scheint deiner Aussage mal so komplett zu widersprechen.
Vielleicht war es auch Resident Evil 4. Irgendeiner der letzten Titel war es auf jeden Fall. Die Implementierung war aber in jedem Fall der Rede nicht wert, auch bei Far Cry 6.
 
Dai6oro schrieb:
Diese Krokodilstränen der Nvidia Anhänger. Ist ja lustig aber immer abfeiern wenn wieder mal was proprietäres von Nvidia kommt. Seit froh, dass ihr FSR und damit sind auch alle Geforce Karten wie Pascal gemeint, mitnutzen dürft und heult leiser.
Der großteil der Spieler besitzt nunmal eine RTX fähige GPU und muss sich deshalb mit der Trostpreis-Lösung zufrieden geben. Weniger Optionen zu haben ist für den Anwender immer ein Nachteil.

Ja DLSS ist eklusiv für RTX GPUs, weil Nvidia dafür benötigte Hardware Einheiten verbaut hat und genau deshalb ist DLSS auch einfach besser als FSR. Warte mal noch ein paar Jahre und der vergleich DLSS/FSR wird für AMD noch schlechter aussehen, außer RDNA4 besitzt dann auch exklusive Hardware Einheiten für FSR.
 
WolledasKnäul schrieb:
Hast du es denn mit einer AMD GPU getestet? Vielleicht ist hier ja nur die FSR Unterstützung seitens Nvidia Grütze? ;)
Jo, meine ehemalige 6800XT ist in der Kiste meiner Frau. Das sieht schon eine ganze Ecke schlechter aus bei gleicher Auflösung.
Ergänzung ()

YamahaFan schrieb:
Tja Spiel halt Nativ dann haste solche Probleme nicht ;) oder ist deine Hardware zu schlecht:D?
Meine Hardware macht jedes Spiel ohne Probleme in 4k mit. Mittlerweile ist man aber an dem Punkt ,dass DLSS immer öfter besser aussieht als nativ. Warum sollte ich dann freiwililg zum Schlechteren greifen?
 
  • Gefällt mir
Reaktionen: Pro_Bro, Celinna, Samuelz und 2 andere
Donnidonis schrieb:
Weil DLSS FSR einfach überlegen ist. Genau so wie auch GSync FreeSync überlegen ist.
Aber ist es aufgrund entstehender Optimierung (die insbesondere bei proprietärer Technik verbreiteter ist) überlegen, weil der proprietäre Hardwarehersteller zufällig auch Marktführer ist und auch softwareseitig den Großteil der Entwickler bei der Implementierung „unterstützt“?
Offene Standards sollten im Interesse jedes Nutzers sein, nicht nur weil dies für Anwender mehr Auswahl und damit niedrigere Preise bedeutet, sondern auch weil die Verbreitung eines Standards diesen auch besser macht hinsichtlich Integration, Optimierung und Weiterentwicklung.

Vor vielen Jahren hatte AMD sich mit TressFX eine offene Technik kreiert die auch auf Nvidia-GPUs lief, Nvidia hat aber aus Reaktion darauf bei seinen technisch unterstützen Spielen eine eigene, proprietäre Technik implementiert, die nur auf Nvidia-GPUs zur Verfügung stand.
Kann mir keiner erzählen, dass das für irgendwen ein Gewinn war…
 
  • Gefällt mir
Reaktionen: Schtefanz, graysson, Iscaran und eine weitere Person
 
  • Gefällt mir
Reaktionen: graysson
Humbertus schrieb:
Doom Eternal kam 2020 raus. Sehe nicht warum Spiele das noch Jahre später einfügen sollen.
Nicht Falsch, nicht richtig.

Den DLSS Support hat Doom: Eternal mit dem ersten 2021 bekommen mit dem 2 Addon. Man hätte damals also FSR 1 implementieren können, hat man aber nicht.

Entwicklungspsrtner war NVIDIA. Wccftech hat in ihrer Liste auch Spiele von 2020 - WoW, um ihre Aussage zu stützen und Spielen von 21, als FSR 2 nicht auf dem Markt war sondern nur FSR 1.

Und genauso so geht Suggestion. Man wählt Daten willkürlich, zieht Grenzen und passt es so an, dass das eigene Bild bestätigt wird.

Und natürlich wird dann auch geschrieben, was die PR-Leute sagen sollten, ohne die Konsequenzen zu bedenken.

Und wen sieht man bei den Likes dieser Beiträge.

Echt Glückwunsch an einige hier, die echt mit zweierlei Maaß messen und gleichzeitig auf entsprechende Manipulation herein fallen.
Atnam schrieb:
Sorry konnte ich mir nicht verkneifen :-P
Kein Ding, ich schreib auf dem Smartphone. Da kommt sowas zu Stande. Wenn es dich erheitert hat: Ziel erreicht.
 
  • Gefällt mir
Reaktionen: Krazee, Schtefanz, CadillacFan77 und 5 andere
Finde ich jetzt nicht so tragisch da FSR2 im Gegensatz zu DLSS ja auch auf GeForce sehr gut läuft.

Solange die FSR Implementation gut ist passt das für mich.

Gab es das Gegenbeispiel doch sicher auch schon oder? Nur DLSS und kein FSR? Das ist jedenfalls dann wirklich shit.
 
  • Gefällt mir
Reaktionen: cruscz
DevPandi schrieb:
Und sie hätten damit Bethesda in die Schusslinie gebracht, die ihnen nach so einem Move dann entsprechend alle weiteren Partnerschaften aufgekündigt hätten.

Ebenso würde AMD damit alle weiteren Partnerschaften zu anderen Firmen gefährden, die sich Dan überlegen, ob sie diese aufnehmen oder verfolgen.
Das glaube ich nicht. Als Entwickler kann man da viel entspannter dran, da ist es normal das man sich erstmal zu gewissen Technologien commitet und später andere nachreicht.. Das lässt sich leicht durch Aufwände, kosten und Zeitdruck rechtfertigen (was ja auch sehr oft so passiert). Der Schaden ist so für AMD und Bethesda entstanden.
 
Juckt nicht - nativ oder es muss etwas eingestellt werden.

FSR und DLSS werden bei mir nicht eingesetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz und iron_monkey
blautemple schrieb:
DLSS sieht aber besser aus, besonders in niedrigen Auflösungen und es gibt technisch überhaupt keinen Grund DLSS nicht zu implementieren.
Oft ja, aber nicht immer. Wenn AMD hier Partner ist und FSR2 entsprechend optimiert wurde sehe ich da keine Probleme.

DLSS ist halt proprietär und muss durch Nvidia KI optimiert werden. Das ist schon was anderes zu implementieren als FSR.
 
TrabT schrieb:
Gab es das Gegenbeispiel doch sicher auch schon oder? Nur DLSS und kein FSR? Das ist jedenfalls dann wirklich shit.
Hier noch mal die Liste: https://www.pcgamingwiki.com/wiki/List_of_games_that_support_high-fidelity_upscaling

Es gibt genug spiele - auch ab 2021 - die exklusiv FSR oder DLSS nutzen, je nach dem wer Partner war und es wird das auch zukünftig geben.

Ob es Verboten wird durch die Hersteller oder weil die Studios einfach nicht die Kapazität haben, wissen wir alle nicht.
 
  • Gefällt mir
Reaktionen: jo0, Iscaran und TrabT
cunhell schrieb:
Nvidia hat, als PhysiX noch der heisse Scheiss war, die Implemetierung in den Games für ATI/AMD nur über eine unoptimierte CPU-Schnittstelle erlaubt.
War das so, meiner Erinnerung nach wurde da getrickst um zu beweisen das PhysX keine besonder Hardware erfordert. Mir war so als ob diese Demo, war glaube ich sogar CellFactor am Ende besser lief als auf NV selber.
cunhell schrieb:
Genau so die absurd hohen Tessationswerte bei Nvidia-gesponserten Titeln, die optisch nichts mehr gebracht haben, aber AMD mies aussehen liesen.
Und? AMD könnte doch auch mal vorpreschen und nicht nur mitlaufen, das nennt sich Wettbewerb. Wenn man nicht mithalten kann, weil einem KnowHow und Technik fehlt dann muss man zusehen das man das bekommt. Entweder durch Forschung oder den Zukauf von Mitarbeitern die das dann machen. Das es geht hat AMD mit Zen Eindrucksvoll bewiesen, jetzt könnten die GPUs auch mal wieder vorlegen.
ThirdLife schrieb:
Schade eigentlich, dass PhysX oder ein ähnlicher Standard nicht viel mehr implementiert werden in zerstörbaren Welten.
Ist es doch, Unity kann Havok und PhysiX nutzen, die UE PhysiX wobei die mittlerweile was eigenes haben. Aber in jedem Spiel wo du was kaputt machen kannst werkelt im Hintergrund eine PhysikEngine nur wird es nicht mehr als was besonderes wargenommen weils mittlerweile eigentlich immer schon in den Engines integriert ist. Damals mit PhysiX war das ein Quantensprung, ich hatte sogar eine dedizierte Beschleuniger Karte von Physix aber der Witz war, die Nvidia Karten konnten das besser, habs getestet mit ner 8800er.
 
  • Gefällt mir
Reaktionen: ThirdLife
Zurück
Oben